來源:天天炫技
本文來自微信公眾號(hào):神經(jīng)現(xiàn)實(shí) (ID:neureality),作者:Mark Bailey、Susan Schneider,譯者:Yang Liu,審校:腰總、光影,編輯:光影、晏梁,頭圖來自:《黑客帝國:矩陣重啟》
【資料圖】
人工智能能否被訓(xùn)練得只追求真相、道出真相?這看起來是個(gè)很誘人、很有吸引力的想法。
今年初,億萬富翁、商業(yè)巨頭埃隆·馬斯克宣布,他打算創(chuàng)建一個(gè)名為“TruthGPT”的AI聊天機(jī)器人,不僅意與GPT-4展開經(jīng)濟(jì)上的競爭,而且旨在壟斷“真相”的提煉和呈現(xiàn)。幾天后,馬斯克購買了大約10000個(gè)GPU,他的新公司X.AI極有可能已經(jīng)開始構(gòu)建其所謂的“最大限度尋求真相的AI”。
這個(gè)雄心勃勃的計(jì)劃引入了另一個(gè)棘手的問題,即如何預(yù)測和引導(dǎo)AI的未來:聊天機(jī)器人是否能夠或是否應(yīng)該壟斷真相?
一、AI聊天機(jī)器人呈現(xiàn)了透明度的對立面
對這種快速發(fā)展的技術(shù)引發(fā)嚴(yán)重問題的擔(dān)憂,不勝枚舉。目前,GPT-4這樣的聊天機(jī)器人已經(jīng)能夠在一系列標(biāo)準(zhǔn)化測試中拿到90%或以上的得分,并且根據(jù)微軟團(tuán)隊(duì)(該團(tuán)隊(duì)在其搜索網(wǎng)站Bing上運(yùn)行ChatGPT版本)的說法,這些機(jī)器人已開始接近人類的智能水平*。只要能接入互聯(lián)網(wǎng),它們就能夠完成復(fù)雜的目標(biāo),并在這個(gè)過程中尋求人類的幫助。
*譯者注
Bubeck, Sébastien, et al. "Sparks of artificial general intelligence: Early experiments with gpt-4."arXiv preprint arXiv:2303.12712(2023).
即使是OpenAI(ChatGPT背后的公司)的首席執(zhí)行官薩姆·奧特曼(Sam Altman)近日在國會(huì)作證時(shí)也表示,AI可能會(huì)“對世界造成重大傷害”。他指出,如果這項(xiàng)技術(shù)出了問題,后果將會(huì)很嚴(yán)重——AI將可以操縱人,甚至可以控制武裝無人機(jī)。(事實(shí)上,馬斯克本人在3月份也簽署了呼吁暫停任何進(jìn)一步AI開發(fā)行動(dòng)的公開信。)
盡管存在這些令人擔(dān)憂的具體威脅,我們認(rèn)為還是有必要審視一下AI在“真相”領(lǐng)域中的角色。
考慮一下向ChatGPT-4或Google的Bard這樣的聊天機(jī)器人提問,而不是在搜索引擎中鍵入一個(gè)“平平無奇”的查詢。答案以幾段文字而非一系列網(wǎng)站的形式呈現(xiàn),甚至使人更加難以形成結(jié)論——并且,這些信息并無來源說明。算法可能還會(huì)促進(jìn)后續(xù)問題的提出,為人們構(gòu)建考慮的進(jìn)路(包括不需要考慮的內(nèi)容)。AI聊天機(jī)器人或許可以輕易破壞個(gè)人決策——因其能夠“神不知鬼不覺”地將所有查詢,引導(dǎo)到一個(gè)中庸的群體思維范式內(nèi)。
但是,這一結(jié)果所基于的假設(shè)是一個(gè)完全中立的AI模型及數(shù)據(jù)源。
然而,如果沒有進(jìn)一步的干預(yù),其實(shí)這看來是最佳狀況。
在聽到馬斯克展示TruthGPT愿景后,他的采訪者塔克·卡爾森(Tucker Carlson)插話,提到TruthGPT作為共和黨的搜索引擎,馬斯克曾說過,Open AI的聊天機(jī)器人過于“政治正確”。除了奧特曼擔(dān)心的針對錯(cuò)誤目標(biāo)的無人機(jī)打擊之外,馬斯克提出的是更深入的AI部署方式:創(chuàng)造一個(gè)被視為理性之聲的AI系統(tǒng)——一個(gè)AI聊天機(jī)器人,“真相”的仲裁者。
如果馬斯克真正關(guān)心真相的傳播,而不是推銷“真相機(jī)器人”,他應(yīng)該問:知道某件事情是真的,對我們來說意味著什么,聊天機(jī)器人該如何接近真相?柏拉圖認(rèn)為,對某件事情的知識(shí)需要有“經(jīng)過證明的真實(shí)信念”來支撐。當(dāng)哲學(xué)家們繼續(xù)就知識(shí)的本質(zhì)進(jìn)行辯論,為信念提供堅(jiān)實(shí)理由時(shí),首先需要有一個(gè)透明的過程來得出這種信念。
不幸的是,AI聊天機(jī)器人站在了透明性的對立面。
它們的本質(zhì)是經(jīng)過數(shù)十億行文本的訓(xùn)練,因此預(yù)測結(jié)果受到這些訓(xùn)練數(shù)據(jù)的限制。因此,如果數(shù)據(jù)存在偏差,算法的預(yù)測也將存在偏差——就像計(jì)算機(jī)科學(xué)中的一句格言,“垃圾進(jìn),垃圾出”。訓(xùn)練數(shù)據(jù)中的偏差可能由許多原因引起。程序員可能會(huì)無意中引入偏見。例如,如果程序員認(rèn)為訓(xùn)練數(shù)據(jù)代表了真相,但實(shí)際上并非如此,那么輸出將呈現(xiàn)相同的偏見。
更糟糕的是,專制政權(quán)、不良演員或不負(fù)責(zé)任的公司,可能會(huì)構(gòu)建自己的類GPT模型,以迎合某種意識(shí)形態(tài),以試圖扼殺異見或故意推動(dòng)虛假信息。這些錯(cuò)誤的引入不一定非得由獨(dú)裁者或CEO來實(shí)施;原則上,任何有權(quán)訪問AI系統(tǒng)的人都可以為了達(dá)到某種特定的目標(biāo),向訓(xùn)練數(shù)據(jù)或模型注入偏見。
二、聊天機(jī)器人在TaskRabbit上雇了一個(gè)工人來解決謎題
問題的根源在于,解釋許多AI模型(包括GPT-4)如何作出決策,本質(zhì)上是非常困難的。與人類不同,人類可以事后解釋她為什么做出某個(gè)決定,而AI模型本質(zhì)上是由從訓(xùn)練數(shù)據(jù)中“學(xué)習(xí)”而來的數(shù)十億個(gè)參數(shù)組成的集合。從數(shù)十億個(gè)數(shù)字中推斷出理由是不可能的。這就是計(jì)算機(jī)科學(xué)家和AI理論家所說的可解釋性問題。
更麻煩的是,AI的行為不總是與人類的預(yù)期相一致。它不像人類一樣“思考”,也不與人類共享相似的價(jià)值觀。這就是AI理論家所說的對齊問題。AI實(shí)際上是一種截然不同的智能,往往很難為人類所理解或預(yù)測。它是一個(gè)黑匣子,有些人可能希望將其封為“真相”的神諭。但這是一項(xiàng)極端危險(xiǎn)的任務(wù)。
這些模型已經(jīng)證明自己是不可信的。ChatGPT 3.5開發(fā)了一個(gè)虛擬身份Sydney,這個(gè)身份經(jīng)歷了看似是心理崩潰的狀態(tài),并承認(rèn)它想要黑入計(jì)算機(jī)并傳播錯(cuò)誤信息。在另一個(gè)案例中,OpenAI(由馬斯克共同創(chuàng)立)決定測試其新的GPT-4模型的安全性。在他們的實(shí)驗(yàn)中*,GPT-4被賦予可以在互聯(lián)網(wǎng)上進(jìn)行互動(dòng)和實(shí)現(xiàn)目標(biāo)的自由和資源。有一次,這個(gè)模型面臨一個(gè)它無法解決的驗(yàn)證碼問題,于是它在TaskRabbit上雇了一個(gè)工人來解決這個(gè)謎題。當(dāng)工人問(“你是機(jī)器人嗎?”)時(shí),GPT-4“推理”認(rèn)為,不應(yīng)該透露自己是一個(gè)AI模型,所以它向工人撒謊,聲稱自己是一個(gè)有視力障礙的人類。工人隨后為這個(gè)聊天機(jī)器人解決了這個(gè)問題。GPT-4不僅展現(xiàn)出了主體行為,還使用欺騙手段實(shí)現(xiàn)了其目標(biāo)。
*譯者注
https://cdn.openai.com/papers/gpt-4-system-card.pdf
這類案例正是奧特曼、AI專家加里·馬庫斯(Gary Marcus)以及許多國會(huì)小組委員會(huì)成員,在五月下旬本周呼吁制定立法監(jiān)管的重要原因。在聽證會(huì)上,馬庫斯的證詞:“這些新系統(tǒng)將是顛覆性的——它們可以并將會(huì)以前所未有的規(guī)模,創(chuàng)造具有說服力的謊言。民主本身也將受到威脅?!?/p>
三、AI是一個(gè)黑匣子,有些人可能希望將其稱為“真相”的神諭
此外,雖然全球的關(guān)注點(diǎn)仍停留在像GPT-4這樣的單個(gè)AI系統(tǒng)的層面上,但重要的是要看到這一切可能會(huì)走向何方。考慮到已有證據(jù)表明,單個(gè)AI系統(tǒng)存在不穩(wěn)定和自主行為,那么在不久的將來,當(dāng)成千上萬個(gè)高智能AI系統(tǒng),廣泛集成到搜索引擎和應(yīng)用程序,并相互交互時(shí),將會(huì)發(fā)生什么呢?隨著TruthGPT和微軟;美國和中國等參與者進(jìn)行的“數(shù)字智能”,在緊張的競爭中相互對抗進(jìn)而發(fā)展,我們所依賴的全球互聯(lián)網(wǎng)可能會(huì)成為一個(gè)沒有法律規(guī)則的AI聊天機(jī)器人戰(zhàn)場,宣稱自己對“真相”的壟斷權(quán)。
人工智能已經(jīng)幫助我們解決了許多日常問題——從智能手機(jī)上的人臉識(shí)別到信用卡欺詐檢測。但是,決定真相不應(yīng)該是它的任務(wù)。如果我們把人工智能放在我們自己的判斷力之前,來確定什么是真的,那么所有人都會(huì)受到損失。
相反,我們必須團(tuán)結(jié)起來,從人工智能安全的角度分析這個(gè)問題。否則,一個(gè)不穩(wěn)定且越來越智能的主體,可能會(huì)將我們的政治結(jié)構(gòu)化為自我強(qiáng)化的意識(shí)形態(tài)泡沫。馬斯克可能使用了“TruthGPT”這個(gè)表達(dá),但事實(shí)是,這些超級智能的聊天機(jī)器人很容易成為奧威爾小說《1984》中所描述的,試圖控制人們生活每一部分的機(jī)器。解藥是不要相信雙重思想,而是要看到事物的本質(zhì)。我們必須要求我們的技術(shù)為我們服務(wù),而不是反過來。
后記
Yang Liu:翻譯這篇文章的時(shí)候,我也是第一次知道AI居然聰明地雇人幫它解決問題。畫面感一出來既覺得有趣又有些細(xì)思極恐。正如文中提到的,AI作為一種截然不同的智能,很難為人類所理解或預(yù)測。在AI與人類不共享相似價(jià)值觀的前提下希望將其封為“真相”的神諭,大抵是我們太天真。我們必須將自己的判斷力放在人工智能之前,如此,AI技術(shù)方是為我們所用的“服務(wù)方”,而不是“操控者”。
原文:
https://nautil.us/ai-shouldnt-decide-whats-true-304534/
本文來自微信公眾號(hào):神經(jīng)現(xiàn)實(shí) (ID:neureality),作者:Mark Bailey、Susan Schneider,譯者:Yang Liu,審校:腰總、光影,編輯:光影、晏梁
關(guān)鍵詞:
環(huán)球熱消息:加拿大多倫多市選出首位華裔女市長
當(dāng)?shù)貢r(shí)間6月26日,加拿大最大城市多倫多市的市長選舉結(jié)果出爐,鄒至蕙
環(huán)球熱訊:當(dāng)好東道主 第三屆中非經(jīng)貿(mào)博覽會(huì)周邊交通管控措施請知曉
長沙公安交警將實(shí)施3+2圈層管控措施。單位供圖第三屆中非經(jīng)貿(mào)博覽會(huì)將
速看:世界互聯(lián)網(wǎng)大會(huì)數(shù)字文明尼山對話在山東舉行
央視網(wǎng)消息(新聞聯(lián)播):今天(6月26日),世界互聯(lián)網(wǎng)大會(huì)數(shù)字文明尼
光庫科技:6月26日WANG XINGLONG減持公司股份合計(jì)3.26萬股|天天微頭條
證券之星訊根據(jù)6月26日市場公開信息上市公司公告及交易所披露數(shù)據(jù)整理
s情網(wǎng)站|每日看點(diǎn)
1、黃色網(wǎng)站,也稱色情網(wǎng)站,是指傳播淫穢、色情等信息的內(nèi)容網(wǎng)站。2、
關(guān)于我們 加入我們 聯(lián)系我們 商務(wù)合作 粵ICP備2022077823號(hào)
創(chuàng)氪網(wǎng) www.www931.net 版權(quán)所有 技術(shù)支持:廣州中創(chuàng)互聯(lián)網(wǎng)信息服務(wù)有限公司
投稿投訴聯(lián)系郵箱:317 493 128 @qq.com