歡迎來到合肥浪訊網(wǎng)絡(luò)科技有限公司官網(wǎng)
  咨詢服務(wù)熱線:400-099-8848

英國多個安排呼吁監(jiān)管組織約束 Meta 利用人工智能進(jìn)行危險(xiǎn)評價

發(fā)布時間:2025-06-09 文章來源:本站  瀏覽次數(shù):68

6 月 9 日消息,據(jù)衛(wèi)報(bào)報(bào)道,互聯(lián)網(wǎng)安全活動人士向英國通信監(jiān)管機(jī)構(gòu) Ofcom 發(fā)出呼吁,要求限制人工智能(AI)在關(guān)鍵風(fēng)險(xiǎn)評估中的使用。英國多個組織對Meta利用人工智能(AI)進(jìn)行用戶風(fēng)險(xiǎn)評估的擔(dān)憂,反映了當(dāng)前科技倫理和數(shù)字權(quán)利領(lǐng)域的核心爭議。以下從背景、爭議焦點(diǎn)、監(jiān)管挑戰(zhàn)和潛在影響等方面展開分析:


1. 背景與事件核心

  • Meta的AI風(fēng)險(xiǎn)評估:Meta(Facebook、Instagram母公司)計(jì)劃利用AI分析用戶行為、社交關(guān)系及內(nèi)容,以識別潛在風(fēng)險(xiǎn)(如自殺傾向、暴力行為等)。該系統(tǒng)可能自動限制賬號功能或內(nèi)容傳播。

  • 英國組織的訴求:包括隱私國際(Privacy International)、數(shù)字權(quán)利組織Foxglove等機(jī)構(gòu)呼吁英國信息專員辦公室(ICO)介入,認(rèn)為該技術(shù)可能侵犯隱私、缺乏透明度,并導(dǎo)致錯誤判定。


2. 爭議焦點(diǎn)

(1)隱私與數(shù)據(jù)權(quán)利

  • 大規(guī)模監(jiān)控風(fēng)險(xiǎn):AI需持續(xù)分析用戶數(shù)據(jù)(如帖子、互動模式),可能構(gòu)成《通用數(shù)據(jù)保護(hù)條例》(GDPR)下的過度數(shù)據(jù)收集。

  • 敏感數(shù)據(jù)處理:心理健康等敏感信息受GDPR嚴(yán)格保護(hù),但AI系統(tǒng)可能無意中捕獲此類數(shù)據(jù)。

(2)算法偏見與錯誤風(fēng)險(xiǎn)

  • 誤判后果:AI可能錯誤標(biāo)記用戶(如將諷刺內(nèi)容視為真實(shí)威脅),導(dǎo)致賬號凍結(jié)或社交孤立。

  • 弱勢群體影響:少數(shù)族裔、LGBTQ+等群體可能因語言或文化差異被系統(tǒng)性誤判(類似既往AI偏見案例)。

(3)透明性與問責(zé)缺失

  • “黑箱”問題:Meta未公開AI訓(xùn)練數(shù)據(jù)、算法邏輯及決策標(biāo)準(zhǔn),用戶難以申訴或理解被限制原因。

  • 監(jiān)管滯后:現(xiàn)行法律(如GDPR)未明確規(guī)范AI風(fēng)險(xiǎn)評估的具體邊界。


3. 英國監(jiān)管機(jī)構(gòu)的角色與挑戰(zhàn)

  • 信息專員辦公室(ICO)的權(quán)限

    • 可依據(jù)GDPR調(diào)查Meta的數(shù)據(jù)處理合法性,尤其是“合法利益”(Legitimate Interest)條款是否濫用。

    • 需評估AI系統(tǒng)的必要性、比例性及對用戶權(quán)利的影響。

  • 潛在行動

    • 要求Meta提供算法透明度或第三方審計(jì)。

    • 限制數(shù)據(jù)使用范圍或要求“選擇退出”機(jī)制。

    • 罰款(GDPR最高可達(dá)全球營收4%)。

  • 挑戰(zhàn)

    • 技術(shù)復(fù)雜性:監(jiān)管機(jī)構(gòu)可能缺乏資源審查Meta的AI系統(tǒng)。

    • 國際協(xié)調(diào)難題:Meta為跨國企業(yè),需歐盟與英國協(xié)同監(jiān)管。


4. 行業(yè)與社會的潛在影響

  • 科技公司自律壓力:若ICO介入,可能推動行業(yè)制定更嚴(yán)格的AI倫理準(zhǔn)則(如劍橋分析事件后的數(shù)據(jù)政策調(diào)整)。

  • 用戶信任危機(jī):若事件發(fā)酵,或加劇公眾對社交媒體AI的不信任,影響Meta廣告營收。

  • 立法推動:英國可能借鑒歐盟《人工智能法案》(AI Act),將風(fēng)險(xiǎn)評估AI列為“高風(fēng)險(xiǎn)”系統(tǒng)并加強(qiáng)監(jiān)管。


5. 可能的解決方案與趨勢

  • 技術(shù)層面

    • 開發(fā)可解釋AI(XAI)工具,提高決策透明度。

    • 引入人工復(fù)核機(jī)制,減少自動化錯誤。

  • 政策層面

    • 明確AI風(fēng)險(xiǎn)評估的適用場景與數(shù)據(jù)限制。

    • 建立獨(dú)立監(jiān)督機(jī)構(gòu)或算法審計(jì)框架。

  • 公眾參與

    • 要求平臺開放用戶投訴渠道,并公布AI誤判統(tǒng)計(jì)數(shù)據(jù)。


結(jié)語

此次爭議凸顯了AI倫理與隱私權(quán)的緊張關(guān)系。監(jiān)管機(jī)構(gòu)的回應(yīng)將影響英國乃至歐盟在科技治理中的立場,也可能成為全球社交媒體AI監(jiān)管的參考案例。長期來看,平衡風(fēng)險(xiǎn)防控與數(shù)字權(quán)利需多方協(xié)作,包括技術(shù)改進(jìn)、法律完善和公眾監(jiān)督。NPR 還報(bào)道稱,Meta 正在考慮將青少年風(fēng)險(xiǎn)和虛假信息傳播監(jiān)測等敏感領(lǐng)域的審查流程自動化。

上一條:OpenAI 稱年收入已...

下一條:萬興科技董事長吳太兵受邀...