編者按:
(相關(guān)資料圖)
據(jù)《紐約時(shí)報(bào)》1月中旬報(bào)道,北密歇根大學(xué)的哲學(xué)教授Antony Aumann在為自己任教的一門(mén)世界宗教課程評(píng)分時(shí),讀到了一篇“全班最好的論文”,追問(wèn)之下學(xué)生坦誠(chéng)是其用ChatGPT生成的。
ChatGPT的熱度從去年11月發(fā)酵至今。究其原因,OpenAI推出的這款A(yù)I聊天機(jī)器人似乎無(wú)所不能,功能非常強(qiáng)大,不僅能流暢地與用戶對(duì)話,甚至能寫(xiě)詩(shī)、撰文、編碼……
ChatGPT爆火出圈,已經(jīng)網(wǎng)羅了一眾流量——上線五天里突破百萬(wàn)用戶大關(guān),不到兩個(gè)月日活用戶過(guò)千萬(wàn)。資本聞聲而動(dòng),Meta、微軟、BuzzFeed等紛紛向其拋出橄欖枝。微軟聯(lián)合創(chuàng)始人比爾·蓋茨日前更是給予ChatGPT高度評(píng)價(jià),稱其能讓他窺見(jiàn)未來(lái),整個(gè)方法和創(chuàng)新速度都令他印象深刻。
整體來(lái)看,ChatGPT就像一顆深水炸彈,由AI掀起的"地震"余波向各行各業(yè)蔓延開(kāi)來(lái)。根據(jù)麥肯錫統(tǒng)計(jì)數(shù)據(jù)顯示,全球AI技術(shù)在通信、交通運(yùn)輸及物流、金融服務(wù)、高新科技、醫(yī)療健康、電力及天然氣等領(lǐng)域的滲透率較高。
到底該如何看待這項(xiàng)重大突破但不完美的技術(shù)呢?北京大學(xué)新聞與傳播學(xué)院教授、CTR媒體融合研究院專家胡泳在其最新力作《流行之道》中,以AI在醫(yī)療行業(yè)的應(yīng)用為例,給出了自己的看法。
你信任人工智能醫(yī)生嗎?
2022年1月22日,IBM在一份簡(jiǎn)短聲明中,宣布將旗下“沃森健康”(Watson Health)業(yè)務(wù)分拆,出售給總部位于舊金山的投資基金 Francisco Partner。這項(xiàng)交易標(biāo)志著“藍(lán)色巨人”正在放棄其在醫(yī)療保健領(lǐng)域的雄心,更加聚焦于構(gòu)建混合云計(jì)算的能力。而從行業(yè)角度看,它意味著人工智能的雄心在醫(yī)療保健業(yè)遭遇重大挫折。
作為這家向人工智能轉(zhuǎn)型的企業(yè)近年來(lái)的明星業(yè)務(wù),沃森健康最重要的產(chǎn)品可以幫助醫(yī)生診斷和治療癌癥。它是IBM最早也是最大的AI嘗試之一。然而,盡管為了打造這一增長(zhǎng)引擎,IMB展開(kāi)了一系列有針對(duì)性的價(jià)值數(shù)十億美元的收購(gòu),但沃森健康在爭(zhēng)取美國(guó)國(guó)內(nèi)外市場(chǎng)份額上的進(jìn)展并不順利,并且短期內(nèi)也看不到盈利的前景。
在休斯敦的MD安德森癌癥中心,沃森健康于2013年首次部署認(rèn)知計(jì)算技術(shù),以幫助腫瘤學(xué)家從衛(wèi)生系統(tǒng)的大量研究和患者數(shù)據(jù)中挖掘洞見(jiàn),并開(kāi)發(fā)新的以NLP(神經(jīng)語(yǔ)言程序)為基礎(chǔ)的工具來(lái)支持決策。
然而,到2018年,這兩個(gè)組織的合作陷入困境,MD安德森中心在花費(fèi)超過(guò) 6000萬(wàn)美元之后取消了該項(xiàng)目,原因是“存在許多不安全和不正確的治療建議實(shí)例”。
失敗的原因不一而足。醫(yī)療專家相信,沃森機(jī)器人醫(yī)生的困境凸顯了將AI用于治療復(fù)雜疾病的障礙,可能同時(shí)包括人力、財(cái)務(wù)和技術(shù)。比如,獲得具有廣泛代表性的患者群體的數(shù)據(jù)一直是一項(xiàng)挑戰(zhàn),而在另外一方面,這些疾病的結(jié)果往往取決于許多可能無(wú)法在臨床數(shù)據(jù)庫(kù)中完全捕獲的因素。
同時(shí),科技公司缺乏深厚的醫(yī)療保健專業(yè)知識(shí),如果它們不夠了解實(shí)戰(zhàn)的臨床工作流程,就會(huì)增加在病患環(huán)境中實(shí)施人工智能的困難。必須知道可以在哪里插入AI,以及 AI又能夠在哪些方面提供幫助,而一切都要以提高醫(yī)院的效率為準(zhǔn)。
究其根本,在醫(yī)院中應(yīng)用人工智能,首先是解決信任問(wèn)題。在相當(dāng)大的程度上,我們還是第一次見(jiàn)證人和機(jī)器人共處一室的復(fù)雜環(huán)境。當(dāng)醫(yī)生首次與沃森交流時(shí),他們發(fā)現(xiàn)自己處于相當(dāng)困難的境地。一方面,如果沃森提供了與他們自己的觀點(diǎn)相一致的治療指導(dǎo),醫(yī)生們對(duì)沃森的建議就看不出太多價(jià)值。超級(jí)計(jì)算機(jī)只是告訴他們本身業(yè)已知道的東西,而這些建議并沒(méi)有改變實(shí)際的處理方式。這可能會(huì)讓醫(yī)生放心,讓其對(duì)自己的決定更有信心。然而如果只是幫忙確認(rèn),機(jī)器人醫(yī)生值得在醫(yī)院里部署嗎?
另一方面,如果沃森提出了與專家意見(jiàn)相矛盾的建議,醫(yī)生通常會(huì)得出結(jié)論:沃森對(duì)癌癥無(wú)能為力。機(jī)器無(wú)法解釋為什么它的處理是合理的,因?yàn)樗乃惴ㄌ珡?fù)雜了,不能被人完全理解。因此,這導(dǎo)致了更多的不信任和懷疑,許多醫(yī)生會(huì)忽略看起來(lái)異乎尋常的 AI 建議,并堅(jiān)持自己的專業(yè)知識(shí)。
由此來(lái)看,沃森的腫瘤診斷問(wèn)題是醫(yī)生根本不信任它。人類的信任往往基于我們對(duì)其他人如何思考的理解,以及對(duì)其可靠性的經(jīng)驗(yàn)了解,這有助于創(chuàng)造一種心理安全感。而AI對(duì)于大多數(shù)人來(lái)說(shuō)仍然是相當(dāng)新穎和陌生的,它使用復(fù)雜的分析系統(tǒng)進(jìn)行決策,以識(shí)別潛在的隱藏模式和來(lái)自大量數(shù)據(jù)的微弱信號(hào)。
即使可以在技術(shù)上解釋(并非總是如此),AI的決策過(guò)程對(duì)于大多數(shù)人來(lái)說(shuō)通常難以理解,和自己不明白的事情互動(dòng)會(huì)引起焦慮,并使我們感覺(jué)失去了控制。許多人也不太了解許多AI實(shí)際工作的實(shí)例,因?yàn)樗鼈兂30l(fā)生在后臺(tái)。
相反,人們總能敏銳地意識(shí)到人工智能出錯(cuò)的情況:谷歌算法將黑人分類為大猩猩;一個(gè)微軟聊天機(jī)器人在不到一天的時(shí)間里成為白人至上主義者;在自動(dòng)駕駛模式下運(yùn)行的特斯拉汽車導(dǎo)致了致命的事故。這些不幸的例子受到了媒體不成比例的關(guān)注,向社會(huì)發(fā)出了人類不能完全依賴技術(shù)的信息。機(jī)器學(xué)習(xí)并非萬(wàn)無(wú)一失,部分原因是設(shè)計(jì)它的人不是萬(wàn)能的。
具體到醫(yī)療保健領(lǐng)域,發(fā)生問(wèn)題的也不是只有IBM。谷歌的DeepMind部門(mén)在開(kāi)發(fā)了轟動(dòng)世界的圍棋程序之后,也曾推動(dòng)多項(xiàng)針對(duì)慢性病的醫(yī)療保健舉措。然而它目前也處于虧損狀態(tài),并在收集健康數(shù)據(jù)方面遇到了隱私擔(dān)憂。
雖說(shuō)如此,用人工智能改進(jìn)醫(yī)療保健業(yè)的努力還會(huì)繼續(xù)。原因很簡(jiǎn)單:盡管它的效率只能實(shí)現(xiàn)40%到60%,然而這是一個(gè)價(jià)值萬(wàn)億美元的行業(yè)。因此,用機(jī)器學(xué)習(xí)算法或可擴(kuò)展的AI之類的優(yōu)雅工具使它得到顯著改善的想法,顯然還是非常誘人。
人工智能需要解決的三大問(wèn)題
有多少人工,就有多少智能
在人工智能界,普遍可以聽(tīng)到一個(gè)說(shuō)法:有多少人工,就有多少智能。
這是因?yàn)?,與傳統(tǒng)計(jì)算不同,人工智能可以在一系列尚未由人預(yù)編程的情況下做出決策。人工智能大部分是關(guān)于可以通過(guò)經(jīng)驗(yàn)學(xué)習(xí)和發(fā)展的系統(tǒng),通常用于執(zhí)行專業(yè)任務(wù),如駕駛、玩策略游戲或進(jìn)行投資決策。這個(gè)子集也被稱為認(rèn)知計(jì)算,需要通過(guò)學(xué)習(xí)進(jìn)行培訓(xùn)。
機(jī)器學(xué)習(xí)需要喂給機(jī)器大量的數(shù)據(jù),而這些數(shù)據(jù)大部分是需要人工標(biāo)注的,這在機(jī)器學(xué)習(xí)當(dāng)中叫作“監(jiān)督學(xué)習(xí)”(supervised learning),即根據(jù)輸入 - 輸出的樣本對(duì)子,學(xué)習(xí)一個(gè)將輸入映射到輸出的函數(shù)或模式,并依此模式推測(cè)新的實(shí)例。
舉例來(lái)說(shuō),要寫(xiě)一個(gè)機(jī)器學(xué)習(xí)算法,讓它能夠在網(wǎng)上幫我找到符合我口味的衣服,就需要訓(xùn)練一個(gè)能識(shí)別某種服裝的程序。首先需要的是數(shù)據(jù),因?yàn)楸仨毥o機(jī)器學(xué)習(xí)算法標(biāo)注一些樣本。訓(xùn)練者先搜集很多圖片,然后把需要的標(biāo)出正例。比如把所有襯衣圖片標(biāo)注出來(lái),其他未被標(biāo)注襯衣的,就是負(fù)例。機(jī)器會(huì)通過(guò)這些樣本的標(biāo)注,知道哪些是襯衣,哪些不是襯衣,哪些是主人想要的,哪些不是主人想要的。假如提出更高的要求,讓程序識(shí)別淺色的襯衣,就要進(jìn)一步把淺色襯衣的圖片再標(biāo)注出來(lái),這樣機(jī)器就會(huì)知道那些淺色的襯衣是主人更想要的。這樣的條件可以不斷趨向復(fù)雜,例如讓機(jī)器識(shí)別帶條紋的淺色襯衣,而所有這些對(duì)于數(shù)據(jù)的進(jìn)一步處理,都需要人工來(lái)解決。
人的標(biāo)注工作完成之后,就可以訓(xùn)練機(jī)器學(xué)習(xí)算法,讓它不斷去看圖片,并對(duì)所看過(guò)的圖片加以總結(jié)。然后它自己總結(jié)出一個(gè)算法框架,知道大概往哪個(gè)方向?qū)W習(xí)。機(jī)器學(xué)習(xí)的目標(biāo)就是利用人們輸入的數(shù)據(jù),讓自身的錯(cuò)誤識(shí)別率達(dá)到最低。這個(gè)目標(biāo)達(dá)成之后,機(jī)器就學(xué)成出師,可以為人工作了。
學(xué)習(xí)如何學(xué)習(xí)
“智能”這一術(shù)語(yǔ)的使用常常導(dǎo)致人們對(duì)AI的能力和擬人化風(fēng)險(xiǎn)的誤解(這里的擬人化,是指將人類特征和行為分配給非人類事物)。今天可用的大多數(shù) AI技術(shù)都是根據(jù)特定目標(biāo)學(xué)習(xí)或優(yōu)化其活動(dòng),因此只能按照所傳授的內(nèi)容進(jìn)行操作。其能力的大小,反映了培訓(xùn)的數(shù)據(jù)及培訓(xùn)的質(zhì)量,以及AI流程的設(shè)計(jì)情況。通常,仍會(huì)需要人工處理異常情況。
這意味著AI目前的形式很狹窄,只能專門(mén)用于特定的應(yīng)用程序,它所遵循的流程和程序是不可遷移的。DeepMind應(yīng)用程序可以勝過(guò)圍棋的最佳人類選手,但它在國(guó)際象棋中甚至無(wú)法擊敗普通人類玩家。
當(dāng)人工智能開(kāi)始變得真正聰明并能夠?qū)W習(xí)未被教授的行為時(shí),將會(huì)發(fā)生重大變化。然而,這個(gè)技術(shù)里程碑是否可以實(shí)現(xiàn)尚無(wú)定論。
不知之不知
在人工智能開(kāi)發(fā)當(dāng)中,同樣存在“已知的未知”和“未知的未知”?!耙阎奈粗笔侵改J讲荒艽_定正確分類的例子。
其解決方案是,在不確定的例子上從人們那里獲得新標(biāo)簽。例如,如果一個(gè)模式不能確定一張照片的主體是否是一只貓,就會(huì)要求人去驗(yàn)證;但如果系統(tǒng)確定的話,就不會(huì)要求人去驗(yàn)證。雖然在這方面還有改進(jìn)的余地,但令人欣慰的是,模式的置信度與它的表現(xiàn)相關(guān),人們可以認(rèn)清模式不知道的東西有哪些。
另一方面,“未知的未知”是指模式對(duì)其答案有信心,但實(shí)際上是錯(cuò)誤的。對(duì)人來(lái)說(shuō),這就產(chǎn)生了一個(gè)難題:需要知道人工智能算法何時(shí)工作,何時(shí)不工作。雖然電影推薦假如不是那么準(zhǔn)確可能并不要緊,但一旦一個(gè)算法在自動(dòng)駕駛汽車或醫(yī)療應(yīng)用程序中表現(xiàn)不佳,其結(jié)果可能是毀滅性的。
人工智能系統(tǒng)的內(nèi)部工作往往不透明,人類很難理解人工智能學(xué)習(xí)系統(tǒng)如何得出他們的結(jié)論。為了解決這個(gè)問(wèn)題,設(shè)計(jì)者和觀察者已經(jīng)討論過(guò)在AI系統(tǒng)中需要一定程度的解釋邏輯,以便檢查錯(cuò)誤并讓人類學(xué)習(xí)和理解。
算法復(fù)雜性的挑戰(zhàn)
然而,人工智能系統(tǒng)復(fù)雜性的挑戰(zhàn)并不容易克服。事實(shí)證明,機(jī)器“知道”得越多,我們就越不了解它們。用于人工智能的深度學(xué)習(xí)方法涉及從簡(jiǎn)單的構(gòu)件中創(chuàng)建復(fù)雜的、分層的表征,以解決高層次的問(wèn)題。網(wǎng)絡(luò)在層次結(jié)構(gòu)的初始級(jí)別學(xué)習(xí)一些簡(jiǎn)單的東西,然后將信息發(fā)送到下一個(gè)級(jí)別,在那里信息被組合成更復(fù)雜的東西。這個(gè)過(guò)程持續(xù)進(jìn)行,每一級(jí)都從上一級(jí)收到的輸入中建立。
與此同時(shí),層數(shù)越深,優(yōu)化算法就越難。最終,它們變得如此困難,以至于數(shù)據(jù)科學(xué)家無(wú)法解釋它們是如何工作的。在某一點(diǎn)上,用于深度神經(jīng)網(wǎng)絡(luò)的算法以某種方式,奇跡般地產(chǎn)生了準(zhǔn)確的結(jié)果——但科學(xué)家和工程師并不完全了解結(jié)果是如何產(chǎn)生的。人工智能使機(jī)器能夠進(jìn)行預(yù)測(cè),但很難讓計(jì)算機(jī)解釋它是如何得出結(jié)論的。這不僅提出了信任問(wèn)題,而且還產(chǎn)生了潛在的法律和責(zé)任問(wèn)題。在人工智能獲得全力推進(jìn)之前,這方面有很多東西需要探索和考慮。
責(zé)任編輯:李倩
分享到:版權(quán)聲明:凡注明來(lái)源“流媒體網(wǎng)”的文章,版權(quán)均屬流媒體網(wǎng)所有,轉(zhuǎn)載需注明出處。非本站出處的文章為轉(zhuǎn)載,觀點(diǎn)供業(yè)內(nèi)參考,不代表本站觀點(diǎn)。文中圖片均來(lái)源于網(wǎng)絡(luò)收集整理,僅供學(xué)習(xí)交流,版權(quán)歸原作者所有。如涉及侵權(quán),請(qǐng)及時(shí)聯(lián)系我們刪除!關(guān)鍵詞: 人工智能 機(jī)器學(xué)習(xí) 應(yīng)用程序