2023年8月10日,美國(guó)非營(yíng)利組織Accountable Tech、AI Now研究所和電子隱私信息中心(EPIC)聯(lián)合發(fā)布了《零信任人工智能治理》的政策建議,旨在限制大型AI公司在監(jiān)管方面的影響力。該政策建議提出“零信任人工智能治理(Zero Trust AI Governance)”框架的三項(xiàng)首要原則,呼吁立法者重新審視保護(hù)法,防止科技公司為牟利而去涉及明確禁止的某些AI領(lǐng)域。元戰(zhàn)略摘編其重要內(nèi)容,探討未來(lái)監(jiān)管人工智能的最佳方式。
前言
AI的飛速發(fā)展、新系統(tǒng)的瘋狂部署以及圍繞AI的炒作,都讓人們對(duì)AI改變社會(huì)的潛力產(chǎn)生了極大的興趣。但是,我們并沒(méi)有走上實(shí)現(xiàn)這些美好愿景的道路。AI的發(fā)展軌跡正被一些不負(fù)責(zé)任的大型科技公司間有害的競(jìng)爭(zhēng)所左右。
(資料圖片僅供參考)
隨著各公司匆忙將不安全的系統(tǒng)推向市場(chǎng),如輕而易舉散布虛假信息的聊天機(jī)器人,并肆無(wú)忌憚地將它們整合到旗艦產(chǎn)品和服務(wù)中,這場(chǎng)企業(yè)爭(zhēng)奪AI霸權(quán)地位的斗爭(zhēng)所造成的社會(huì)成本已經(jīng)在不斷增加。近期的危害包括加速選舉中的操縱和詐騙、加劇偏見(jiàn)和歧視、侵犯隱私和自主權(quán)等。從中長(zhǎng)期來(lái)看,更多的系統(tǒng)性威脅迫在眉睫,如高昂的環(huán)境成本、大規(guī)模的勞動(dòng)力中斷,以及大型科技公司在整個(gè)數(shù)字經(jīng)濟(jì)領(lǐng)域權(quán)力的進(jìn)一步鞏固。
行業(yè)領(lǐng)袖們?cè)诠_(kāi)呼吁亟需對(duì)AI進(jìn)行監(jiān)管的同時(shí),也在警告滅頂之災(zāi)的威脅,同時(shí)私下游說(shuō)反對(duì)有意義的問(wèn)責(zé)措施,并繼續(xù)發(fā)布功能越來(lái)越強(qiáng)大的新的AI系統(tǒng)。鑒于事關(guān)重大,我們不能盲目相信這些行業(yè)領(lǐng)袖。
事實(shí)上,通過(guò)對(duì)美國(guó)聯(lián)邦政府監(jiān)管AI的方法進(jìn)行更深入的研究后,我們發(fā)現(xiàn),這些監(jiān)管方法一般通過(guò)冗長(zhǎng)的流程來(lái)阻止行動(dòng),依賴于過(guò)于復(fù)雜且難以執(zhí)行的制度,并將問(wèn)責(zé)的負(fù)擔(dān)強(qiáng)加給那些已經(jīng)受到傷害的人。
如果美國(guó)聯(lián)邦政府不迅速采取行動(dòng)改變當(dāng)前的態(tài)勢(shì),如大力執(zhí)行現(xiàn)行法律,最終通過(guò)強(qiáng)有力的聯(lián)邦隱私立法和反壟斷改革,并頒布強(qiáng)有力的新AI問(wèn)責(zé)措施,那么危害的范圍和嚴(yán)重程度就會(huì)加劇。如果我們希望AI的未來(lái)能夠保護(hù)公民權(quán)利、推進(jìn)民主理想并改善人們的生活,我們就必須從根本上進(jìn)行改變。
原則一:
迅速且有力地執(zhí)行現(xiàn)有法律
行業(yè)領(lǐng)袖們采取了許多策略,在拖延問(wèn)責(zé)的同時(shí),將自己塑造成深思熟慮的形象。他們夸大了人類滅絕的長(zhǎng)期威脅,要求美國(guó)國(guó)會(huì)成立一個(gè)新機(jī)構(gòu),并對(duì)那些會(huì)延緩行動(dòng)的提案大加贊賞,所有這一切都在使AI競(jìng)爭(zhēng)愈演愈烈。事實(shí)上,人們已經(jīng)感受到了這些AI系統(tǒng)帶來(lái)的具體危害,其發(fā)展速度不亞于AI本身。正如聯(lián)邦執(zhí)法機(jī)構(gòu)的官員們所強(qiáng)調(diào)的那樣,現(xiàn)有的法律對(duì)AI沒(méi)有任何約束力。迅速且有力地執(zhí)行現(xiàn)有法律是減輕自動(dòng)化危害和阻止魯莽部署不安全系統(tǒng)的非常關(guān)鍵的第一步。
1. 執(zhí)行反歧視法。AI工具不能用于自動(dòng)化非法歧視,這違反了《民權(quán)法》《投票權(quán)法》《公平住房法》《平等信用機(jī)會(huì)法》《公平信用報(bào)告法》《同工同酬法》和《美國(guó)殘疾人法》等聯(lián)邦法規(guī)。
2. 執(zhí)行消費(fèi)者保護(hù)法。美國(guó)聯(lián)邦貿(mào)易委員會(huì)(FTC)在保護(hù)消費(fèi)者方面擁有廣泛的法定職責(zé),他們已明確表示,將打擊從自動(dòng)詐騙、AI工具的虛假宣傳到欺騙性廣告行為和隱私濫用等一切行為。重要的是,他們已采取了新的補(bǔ)救措施,這些措施可以起到威懾作用,比如迫使公司刪除根據(jù)不正當(dāng)數(shù)據(jù)訓(xùn)練的算法。
3. 執(zhí)行競(jìng)爭(zhēng)法。在AI競(jìng)爭(zhēng)中,科技巨頭們已經(jīng)在從事一系列反競(jìng)爭(zhēng)行為,包括搭售和捆綁、排他性交易、限制性許可和有害的數(shù)據(jù)收購(gòu)。雖然美國(guó)國(guó)會(huì)應(yīng)通過(guò)適合數(shù)字時(shí)代的新反壟斷法,包括在后續(xù)章節(jié)中概述的那些法律,但美國(guó)聯(lián)邦貿(mào)易委員會(huì)和美國(guó)司法部(DOJ)應(yīng)繼續(xù)利用其全部權(quán)力來(lái)對(duì)抗這些濫用行為,并應(yīng)利用其正在進(jìn)行的合并指南以及美國(guó)聯(lián)邦貿(mào)易委員會(huì)的商業(yè)監(jiān)控規(guī)則來(lái)加強(qiáng)其打擊不公平競(jìng)爭(zhēng)的力度。
4. 明確美國(guó)《通信規(guī)范法案》(CDA)第230條的限制,支持原告尋求對(duì)各種AI損害的補(bǔ)償。保護(hù)數(shù)字服務(wù)免于承擔(dān)第三方內(nèi)容責(zé)任的法律不應(yīng)保護(hù)生成式AI。針對(duì)ChatGPT的誹謗案件已經(jīng)開(kāi)始審理,更嚴(yán)重的案件肯定會(huì)接踵而至。想一想一個(gè)聊天機(jī)器人勸說(shuō)一名男子自殺的悲劇,或者關(guān)于提供致命配方的假設(shè)。除CDA第230條外,AI公司還成為高風(fēng)險(xiǎn)版權(quán)案件、集體隱私訴訟等案件的目標(biāo)。雖然棘手的法律問(wèn)題比比皆是,但政策制定者應(yīng)尋求機(jī)會(huì),在一些案件中提交“法庭之友”(amicus,亦寫作為amici curiae,是指“由于與法院在審案件所涉問(wèn)題具有利害關(guān)系,或者對(duì)之有個(gè)人見(jiàn)解,且未受到雙方當(dāng)事人充分代表而自愿或者受到法院邀請(qǐng)向法院提交書(shū)面意見(jiàn)的非案件當(dāng)事人”)的書(shū)狀和利益聲明,這些案件將決定未來(lái)AI損害的責(zé)任以及開(kāi)發(fā)和部署這些系統(tǒng)者的行為。
原則二:
大膽、易于管理、明確的規(guī)則是必要的
現(xiàn)在應(yīng)該很清楚,自我監(jiān)管將無(wú)法避免AI的損害。任何依賴于自愿遵守或以其他方式將關(guān)鍵環(huán)節(jié)外包給行業(yè)的監(jiān)管制度都是如此。這包括主要依賴審計(jì)的復(fù)雜框架,尤其是第一方(內(nèi)部)或第二方(簽約供應(yīng)商)的審計(jì),而大型科技公司已經(jīng)越來(lái)越多地接受了這種審計(jì)。這些方法在紙面上可能很有力,但在實(shí)踐中,它們往往會(huì)進(jìn)一步賦予行業(yè)領(lǐng)域權(quán)力,加重小企業(yè)的負(fù)擔(dān),并削弱監(jiān)管者正確執(zhí)行法律條文和精神的能力。
1. 禁止不可接受的AI做法。AI的某些用途從根本上不符合人權(quán),絕不應(yīng)允許。其中包括:
a.
情緒識(shí)別或使用生物識(shí)別技術(shù)推斷心理狀態(tài)
b.
預(yù)測(cè)性警務(wù)
c.
遠(yuǎn)程生物識(shí)別,包括在公共場(chǎng)所使用面部識(shí)別技術(shù)
d.
社會(huì)評(píng)分
e.
全自動(dòng)招聘或解雇
2. 禁止大部分個(gè)人數(shù)據(jù)的二次使用和第三方披露。美國(guó)未能通過(guò)全面的聯(lián)邦隱私立法,使得建立在監(jiān)控和剝削基礎(chǔ)上的經(jīng)濟(jì)得以發(fā)展。從隱私角度和競(jìng)爭(zhēng)角度來(lái)看,嚴(yán)格的“數(shù)據(jù)最小化原則”(限制企業(yè)收集數(shù)據(jù)以及其數(shù)據(jù)用途)是解決大型科技公司間有害競(jìng)爭(zhēng)的最有力工具之一,因?yàn)榇笮涂萍脊驹谶@一領(lǐng)域的主導(dǎo)地位主要?dú)w功于其龐大的數(shù)據(jù)優(yōu)勢(shì)。
a.
禁止收集或處理所有敏感數(shù)據(jù)。正如美國(guó)兩黨共同制定的《美國(guó)數(shù)據(jù)隱私保護(hù)法》(ADPPA)所定義的,確定超出提供或維護(hù)個(gè)人所要求的特定產(chǎn)品或服務(wù)的嚴(yán)格范圍。
b.
禁止在教育、工作場(chǎng)所、住房和招聘中收集或處理生物特征識(shí)別數(shù)據(jù)。
c.
禁止監(jiān)控廣告。
3. 防止大型科技公司濫用權(quán)力扭曲數(shù)字市場(chǎng)以及使其之間的AI競(jìng)爭(zhēng)永久化。云基礎(chǔ)設(shè)施供應(yīng)商作為構(gòu)建和運(yùn)營(yíng)大規(guī)模AI的關(guān)鍵,最易獲得優(yōu)勢(shì)。而平臺(tái)生態(tài)系統(tǒng)的所有者則可以利用其數(shù)據(jù)優(yōu)勢(shì),在這些系統(tǒng)商業(yè)化的過(guò)程中攫取租金。結(jié)構(gòu)化干預(yù)是防止市場(chǎng)惡性競(jìng)爭(zhēng)的最佳途徑,因?yàn)檫@些公司在AI系統(tǒng)準(zhǔn)備就緒之前就急于將其商業(yè)化,而這一切都是為了保持其先發(fā)優(yōu)勢(shì)。
a.
禁止占主導(dǎo)地位的云基礎(chǔ)設(shè)施供應(yīng)商擁有大規(guī)模商業(yè)AI產(chǎn)品或從中獲益。大規(guī)模AI模型的訓(xùn)練和運(yùn)行需要巨大的算力,而價(jià)值5000億美元的云計(jì)算市場(chǎng)已被三家科技巨頭占領(lǐng):亞馬遜、谷歌和微軟。它們既是AI的領(lǐng)導(dǎo)者,又是這些AI系統(tǒng)所依賴的基礎(chǔ)設(shè)施的所有者,這種雙重身份本質(zhì)上是反競(jìng)爭(zhēng)行為,扭曲了市場(chǎng)激勵(lì)機(jī)制,并使有害的AI競(jìng)爭(zhēng)永久化。每家公司都在爭(zhēng)奪霸主地位的同時(shí)匆忙推出不安全的AI產(chǎn)品。美國(guó)在制定結(jié)構(gòu)化補(bǔ)救措施方面有著悠久的歷史,這些措施將控制關(guān)鍵分銷網(wǎng)絡(luò)中關(guān)鍵基礎(chǔ)設(shè)施的公司與依賴這些網(wǎng)絡(luò)的業(yè)務(wù)線分開(kāi),包括鐵路、銀行和電信行業(yè)。
b.
禁止大型科技公司在商業(yè)化AI中自我推薦、拉攏商業(yè)合作伙伴或打擊競(jìng)爭(zhēng)對(duì)手。
c.
禁止大型科技公司利用企業(yè)用戶的非公開(kāi)數(shù)據(jù)進(jìn)行不公平競(jìng)爭(zhēng)。
原則三:
在AI系統(tǒng)生命周期的每個(gè)階段,科技公司都有責(zé)任證明其系統(tǒng)不會(huì)造成危害
行業(yè)領(lǐng)袖們已經(jīng)采取了一系列自愿措施,以表明對(duì)AI關(guān)鍵倫理原則的承諾。但他們也削減了AI倫理團(tuán)隊(duì),無(wú)視內(nèi)部警報(bào),在對(duì)AI的惡性競(jìng)爭(zhēng)時(shí)放棄了透明度,并試圖將責(zé)任推卸給下游用戶和民間社會(huì)。與其依賴科技公司的善意,讓資源不足的執(zhí)法機(jī)構(gòu)或受影響的用戶證明和預(yù)防危害或依賴上市后的審計(jì),科技公司更應(yīng)該證明其AI產(chǎn)品不會(huì)造成危害。
有用的推論:
以往是如何監(jiān)管其他領(lǐng)域的高風(fēng)險(xiǎn)產(chǎn)品?
鑒于先進(jìn)的AI系統(tǒng)具有廣泛的社會(huì)影響,根據(jù)其制造商的說(shuō)法,這些系統(tǒng)可能會(huì)在短期內(nèi)造成廣泛的危害,并在長(zhǎng)期內(nèi)帶來(lái)生存風(fēng)險(xiǎn),因此考慮如何監(jiān)管類似的高風(fēng)險(xiǎn)產(chǎn)品是非常有益的。新藥上市的開(kāi)發(fā)和審批過(guò)程對(duì)此非常具有啟發(fā)性。
制藥公司每年在研發(fā)上花費(fèi)數(shù)十億美元,篩選成千上萬(wàn)的化合物,以確定少數(shù)有前景的候選藥物進(jìn)行臨床前研究,其中包括美國(guó)食品藥品監(jiān)督管理局(FDA)批準(zhǔn)的動(dòng)物試驗(yàn),以及藥物成分和安全性的大量文件。有了這些研究和潛在臨床試驗(yàn)的詳細(xì)方案,制藥公司就可以向FDA提交研究申請(qǐng)。如果獲得批準(zhǔn),制藥公司就會(huì)開(kāi)始三個(gè)密集臨床試驗(yàn)階段中的第一個(gè)階段,之后他們就可以提交正式申請(qǐng),將藥物推向市場(chǎng)。如果FDA決定繼續(xù)推進(jìn),審查小組就會(huì)對(duì)所有研究進(jìn)行評(píng)估,以確定藥物對(duì)其預(yù)期用途是否安全有效。獲得批準(zhǔn)的藥物大約1/10進(jìn)入臨床試驗(yàn),隨后要接受FDA的醫(yī)療器械標(biāo)簽、上市后監(jiān)測(cè)、副作用披露等要求。此外,任何重大變更都需要補(bǔ)充申請(qǐng)F(tuán)DA的批準(zhǔn)。
在藥物開(kāi)發(fā)過(guò)程的每個(gè)階段,制藥公司都必須遵守明確的規(guī)則和FDA的標(biāo)準(zhǔn),進(jìn)行廣泛的測(cè)試以識(shí)別和考慮所有可預(yù)見(jiàn)的風(fēng)險(xiǎn),并向監(jiān)管機(jī)構(gòu)展示他們的工作。制藥公司必須向其產(chǎn)品的部署者(處方者)和最終用戶(患者)提供有關(guān)適當(dāng)用法和潛在不良反應(yīng)的明確信息。制藥公司要對(duì)因未能履行這些職責(zé)而造成的傷害承擔(dān)責(zé)任,但不包括因處方者的疏忽或患者的濫用而造成的傷害。
這并不是在呼吁建立一個(gè)新的“AI食品藥品監(jiān)督管理局”,也不是為AI治理開(kāi)出的一對(duì)一的處方,AI治理必須更快、更靈活,但新藥上市的開(kāi)發(fā)和審批過(guò)程是一個(gè)非常有用的參考。同樣,大規(guī)模AI模型和自動(dòng)決策系統(tǒng)也應(yīng)遵守一套嚴(yán)格的部署前要求。
1. 評(píng)估和記錄的具體標(biāo)準(zhǔn)必然會(huì)因AI的類型和成熟度而異。舉例來(lái)說(shuō),一個(gè)旨在識(shí)別疾病早期征兆的AI工具、一個(gè)用于篩選求職者的自動(dòng)化系統(tǒng)、一個(gè)通用的大語(yǔ)言模型,這些AI產(chǎn)品都有可能造成嚴(yán)重危害。因此,在部署前必須對(duì)其進(jìn)行證明,這些AI產(chǎn)品帶來(lái)風(fēng)險(xiǎn)的性質(zhì)各不相同,需要進(jìn)行的測(cè)試也大相徑庭。
2. 盡管評(píng)估每個(gè)系統(tǒng)的標(biāo)準(zhǔn)各異,但必須普遍堅(jiān)持一些核心的AI倫理原則。例如,最近制定的《人工智能權(quán)利法案藍(lán)圖》概述了五類核心保護(hù)措施,為使用AI提供了清晰的路線圖:建立安全和有效的系統(tǒng);避免算法歧視,以公平的方式使用和設(shè)計(jì)系統(tǒng);保護(hù)數(shù)據(jù)隱私;系統(tǒng)的通知和解釋要清晰、及時(shí)和可訪問(wèn);設(shè)計(jì)自動(dòng)系統(tǒng)失敗時(shí)使用的替代方案、考慮因素和退出機(jī)制。這些要求是底線,而不是上限,所有AI都可以且應(yīng)該遵守這些原則,盡管不同的系統(tǒng)遵守這些原則的情況會(huì)有所不同。
3. 應(yīng)要求科技公司根據(jù)其在供應(yīng)鏈中的角色,在開(kāi)發(fā)的各個(gè)階段積極證明其遵守法律。這應(yīng)包括記錄公司確定合理的可預(yù)見(jiàn)危害的流程,以及在可能的情況下如何減輕危害的建議。鑒于AI市場(chǎng)上虛假或夸大宣傳的情況層出不窮,科技公司還必須證明系統(tǒng)能按預(yù)期(和宣傳)運(yùn)行。監(jiān)管機(jī)構(gòu)還可能要求在批準(zhǔn)前進(jìn)行額外的測(cè)試、檢查、披露或修改。在獲得批準(zhǔn)后,應(yīng)在聯(lián)邦數(shù)據(jù)庫(kù)中公布該AI系統(tǒng)所有的公開(kāi)版本文件。
部署后的要求應(yīng)包括:
1. 持續(xù)的風(fēng)險(xiǎn)監(jiān)控,包括通過(guò)年度民權(quán)和數(shù)據(jù)隱私影響評(píng)估,由具有完整的應(yīng)用程序編程接口(API)和數(shù)據(jù)訪問(wèn)權(quán)限的第三方進(jìn)行獨(dú)立審計(jì),并要求為用戶建立有效的投訴機(jī)制,并迅速報(bào)告已發(fā)現(xiàn)的任何嚴(yán)重風(fēng)險(xiǎn)。
2. 在用戶使用AI系統(tǒng)時(shí)主動(dòng)通知用戶,告知其預(yù)期用途,并向用戶提供易于獲取的AI系統(tǒng)主要參數(shù)解釋,以及任何退出機(jī)制或可用的人工替代方案。
3. 生成式AI的具體要求,包括:
a.
遵守新的出處、真實(shí)性和披露標(biāo)準(zhǔn)。雖然這遠(yuǎn)不是解決生成式AI對(duì)信息和新聞生態(tài)系統(tǒng)造成全面危害的靈丹妙藥,但建立有效、可互操作的標(biāo)準(zhǔn)來(lái)認(rèn)證AI生成或操縱的媒體來(lái)源和真實(shí)性,可以增加有助于保護(hù)消費(fèi)者和內(nèi)容創(chuàng)作者的關(guān)鍵背景。
b.
明確禁止某些不可接受的用途。例如未經(jīng)同意傳播深度偽造的圖像;故意欺騙他人,意圖阻礙其行使投票權(quán);或冒充他人并以其假定的身份行事,意圖獲取利益或傷害、詐騙他人。
結(jié)語(yǔ)
長(zhǎng)期以來(lái),我們錯(cuò)信了大型科技公司的自我監(jiān)管,誤以為技術(shù)進(jìn)步就是社會(huì)進(jìn)步,對(duì)不斷升級(jí)的危害視而不見(jiàn)。在我們應(yīng)對(duì)不斷演變的威脅時(shí),“零信任人工智能治理”框架是一個(gè)必要的路線修正,這個(gè)框架提供了我們所需的基線,以促進(jìn)健康的創(chuàng)新,并確保下一代技術(shù)服務(wù)于更大的利益。
責(zé)任編輯:房家輝
分享到:版權(quán)聲明:凡注明來(lái)源“流媒體網(wǎng)”的文章,版權(quán)均屬流媒體網(wǎng)所有,轉(zhuǎn)載需注明出處。非本站出處的文章為轉(zhuǎn)載,觀點(diǎn)供業(yè)內(nèi)參考,不代表本站觀點(diǎn)。文中圖片均來(lái)源于網(wǎng)絡(luò)收集整理,僅供學(xué)習(xí)交流,版權(quán)歸原作者所有。如涉及侵權(quán),請(qǐng)及時(shí)聯(lián)系我們刪除!關(guān)鍵詞: