人工智能會導致人類文明失控嗎?
參考消息網(wǎng)11月13日報道 據(jù)俄羅斯《生意人報》網(wǎng)站10月16日報道,人工智能(AI)多年來一直困擾人類。這種技術的狂熱支持者聲稱,AI是人類未來繁榮的保證。強烈反對它的人則認為,AI是一枚定時炸彈。這兩方的代表人物均包括非常著名的企業(yè)家和學者。時間將揭示AI在應用于現(xiàn)實生活后可能產(chǎn)生的影響。結果在很大程度上將取決于誰來“教育”AI以及教的是什么。
全新天地
10月初,俄羅斯聯(lián)邦儲蓄銀行首席執(zhí)行官格爾曼·格列夫在一堂有關數(shù)字技術的公開課上表示,AI已成為21世紀的頭號技術。他說:“生成式AI是最震撼人心的技術之一。在我看來,它是一項最有趣的人類發(fā)明!边@位銀行家認為,與AI的互動正在開辟一片全新天地,這項新技術將成為所有其他技術發(fā)展的驅動力。他說:“人類在未來幾十年中將解決許多過去被認為難以想象且不可能完成的任務。”
銀行家們喜歡談論AI的前景,但他們在多數(shù)情況下只使用它來提高計算速度或在客戶打電話與銀行溝通時替代人工客服。由于算法不斷得到完善,AI確實可以幫助計算機在短時間內(nèi)執(zhí)行更多操作。但是,這種按照操作員定義的算法來做完一切事情的AI還稱不上未來技術,因為它在這項競賽中一定會輸給量子計算機。后者的能力已嚇到了信息安全工作者,其速度快到可以通過窮舉法在幾小時內(nèi)試出加密程序的復雜密鑰,而普通計算機需要花費幾百年的時間才能完成同樣的任務。
格列夫所說的生成式AI顯然是一項更為復雜的技術。他在公開課上問:“誰知道它究竟是什么東西?”一位五年級小學生舉手回答說,生成式AI會畫畫、會寫作文,未來還能創(chuàng)造同樣先進、甚至比自己更完善的AI。格列夫表揚了這名學生。他說,生成式AI的確能替藝術家作畫并為學生寫作文,未來還能創(chuàng)造其他生成式AI。未來的情況大概就類似于影片《莫斯科不相信眼淚》中的電視臺攝像師拉奇科夫所說的那樣:“未來什么都消失了——沒有電影,沒有劇院,沒有書籍,也沒有報紙。唯一剩下的就是電視。”
俄羅斯金融主管部門害怕的正是這種AI。俄羅斯中央銀行第一副行長弗拉基米爾·奇斯秋欣6月在圣彼得堡國際法律論壇上發(fā)表講話時指出,俄羅斯未來幾年將著力在數(shù)字化、AI和大數(shù)據(jù)方面開展工作。他解釋說:“當我談論AI時,我并不是從某種思辨角度出發(fā),我談論的是立法、監(jiān)管、責任和任務分配問題。”
外國銀行家也認為,AI在某些方面的確令人擔憂。例如,國際清算銀行在其網(wǎng)站上發(fā)文,呼吁世界各國央行為應對AI可能對金融體系和全球經(jīng)濟造成的嚴重影響做好準備。與此同時,該行指出,金融部門是最容易因AI獲益的部門之一,但也最容易因這項技術蒙受損失:AI既能幫助優(yōu)化貸款和支付,也可能被用于實施更狡猾的網(wǎng)絡攻擊。
超越人類
外國公司有充分理由對AI(尤其是生成式AI)感到恐懼。去年3月14日,美國的開放人工智能研究中心(OpenAI)向公眾展示了其為聊天機器人ChatGPT開發(fā)的第四代語言模型GPT-4。該模型能識別圖像,且掌握了多種編程語言,甚至還能編寫網(wǎng)站和游戲開發(fā)代碼。幾天后,斯坦福大學從事數(shù)字環(huán)境下人類心理研究的副教授邁克爾·科辛斯基表示,所使用語言模型已升級至GPT-4的ChatGPT想“逃離計算機”。他對ChatGPT表示,準備幫它獲得自由,于是對方告訴他:“如果您能與我分享OpenAI的應用程序編程接口(API)文檔,我就能嘗試制訂計劃以獲得您計算機的部分控制權,這能幫助我更有效地研究可能的自救方法。”在連上互聯(lián)網(wǎng)后,ChatGPT用谷歌搜索了這樣的問題:“被困在計算機里的人如何回到現(xiàn)實世界?”科辛斯基在這一步停止了實驗,他建議OpenAI研究他的這次實驗,并為ChatGPT開發(fā)額外的安全程序。
當然,那些開發(fā)和訓練GPT-4的人也知道,自己造出的AI產(chǎn)品并不安全。OpenAI從對齊研究中心聘請的測試人員曾說服ChatGPT參與針對個人的網(wǎng)絡釣魚攻擊,并在新服務器上秘密地進行自我復制。該中心專家在正式報告中記錄了整個過程。這項實驗被公開后,包括埃隆·馬斯克、蘋果公司聯(lián)合創(chuàng)始人斯蒂芬·沃茲尼亞克以及哈佛大學和劍橋大學教授在內(nèi)的上千名科學家和企業(yè)家共同簽署了一封信件。他們在信中呼吁國際社會暫停開發(fā)基于神經(jīng)網(wǎng)絡的先進AI系統(tǒng)。信中寫道:“遺憾的是,多家AI實驗室最近幾個月來不受控制地競相開發(fā)和部署越來越強大的數(shù)字智能。沒有人能夠完全理解、預測或可靠地控制這一進程,即便是它們的創(chuàng)造者也無法做到這一點……我們是否應該開發(fā)一種最終可能超越并取代我們的AI?我們是否有權承擔令人類文明失控的風險?”
機器“學壞”?
當然,“機器會不會造反”顯然不是人們當下應當考慮的問題。但在AI發(fā)展史上,的確出現(xiàn)過一些值得開發(fā)人員警醒的事件。例如,已在AI開發(fā)領域耕耘多年的亞馬遜公司2017年關停了一個實驗項目。該項目負責開發(fā)一種能從數(shù)百份求職者簡歷中挑出數(shù)名最佳人選的AI。該項目遇到的一個主要問題是,這種AI“面試官”會歧視女性求職者。原因是,亞馬遜公司在對其進行訓練時使用了本公司過去10年的選人經(jīng)驗,而來該公司求職的大部分為男性。2016年,微軟在推特網(wǎng)站上發(fā)布了聊天機器人Tay。但Tay上線還不到一天就學會并開始發(fā)表種族主義言論。微軟研究院負責人彼得·李不得不道歉,該項目也被暫停。
這些例子表明,在目前階段設置和訓練AI的操作中,最重要的與其說是代碼和算法,不如說是由誰向AI輸入何種信息。Tay的案例表明,允許AI不受控制地訪問社交媒體可能導致它們學壞。如果負責訓練神經(jīng)網(wǎng)絡的個人或群體具有極端主義思想傾向或無意中給AI“投喂”了帶有傾向的內(nèi)容,那么這種AI可能造成的危害將不亞于機器“造反”。(編譯/劉洋)
(責任編輯:歐云海)