50701 AI統治人類,需要分幾步走?

2018高清国产一区二区三区-国产黄色视频免费在线观看-欧美激情欧美精品一区二区-免费国产一级片内射老妇

服務熱線:400-858-9000 咨詢/投訴熱線:
國內專業的一站式創業服務平臺
AI統治人類,需要分幾步走?
鋅財經 ·

孫鵬越

06/25
在2024年,以OpenAI為首的大模型公司,真的能打開毀滅人類社會的潘多拉魔盒嗎?
本文來自于微信公眾號“鋅財經”(ID:xincaijing),作者:孫鵬越,投融界經授權發布。

你敢相信?ChatGPT已(yi)經(jing)通過圖(tu)靈(ling)測試了!

甚至不是(shi)最新的GPT-4o,老(lao)版本GPT-3.5和GPT-4就已(yi)經打(da)破人(ren)類和AI的最后一層限制(zhi)。

“圖靈測試”由(you)計(ji)算機科學家(jia)艾(ai)倫?圖靈在1950年提出(chu)。他(ta)將人(ren)工智能給出(chu)了一個完全可(ke)操作(zuo)的定義:如果一臺機器輸出(chu)的內容和人(ren)類大腦別無二(er)致的話,那么我們就沒有理由(you)堅持認(ren)為這(zhe)臺機器不是在“思考”。

“圖靈測試”和“機器人三定律(lv)”,一直(zhi)被人類世界視為保(bao)護(hu)人類的最后(hou)屏(ping)障。

就連“AI講師”周鴻祎,都在最近的社(she)交平臺上(shang)大談(tan)AI滅世論(lun),將AI焦慮拉到極致。

在2024年,以OpenAI為首的(de)大模型公司,真的(de)能打開毀滅人類社會的(de)潘多拉(la)魔盒嗎(ma)?

“AI滅世論”引發焦慮

從上(shang)世紀(ji)開(kai)始,通過(guo)圖靈測(ce)試就成為人類在AI領域(yu)為之(zhi)奮斗的里程碑目標。

可真的有AI通過測試(shi)后,人類(lei)的惶(huang)恐卻(que)大過于(yu)驚喜。

加(jia)州大學研究(jiu)人(ren)員(yuan)招募了500名參與(yu)者(zhe),讓(rang)他(ta)們(men)與(yu)四位(wei)“對話者(zhe)”進行五分鐘(zhong)的交流,這四位(wei)“對話者(zhe)”分別是:真人(ren)、上(shang)世(shi)紀60年(nian)代的初代聊天機器人(ren)ELIZA、GPT-3.5和GPT-4。

參與者(zhe)在對話結束后(hou),需判斷對方(fang)是人還是機器。

AI統治人類,需要分幾步走?

評估對象通過率(左) 評估者信任(ren)度(右)

結果(guo)顯(xian)示,真人被正確辨認的比例則(ze)為67%;ELIZA只(zhi)有22%;GPT-4和(he)GPT-3.5則(ze)高達(da)54%、50%。

這項測試無疑是(shi)非(fei)常可(ke)怕,真人和GPT-4的差(cha)距僅有12%!

前OpenAI“超級對(dui)齊(qi)團隊”成員(yuan)利奧波德·阿申布倫納(Leopold Aschenbrenner),曾(ceng)在在社交(jiao)平臺披(pi)露出來的一份長(chang)達165頁的PDF文檔,對(dui)外界(jie)發出警(jing)告。

阿申布倫納(na)表示,AI在過(guo)去10年深度學習的(de)進(jin)步速(su)度非常驚人。僅(jin)僅(jin)10年前(qian),AI識別簡單(dan)圖(tu)像的(de)能力就已(yi)經是革命(ming)性的(de)。但(dan)如今,人類(lei)不(bu)斷嘗試提出新穎(ying)的(de)、更難(nan)的(de)測(ce)試,但(dan)每個新的(de)基準(zhun)測(ce)試都(dou)很快被AI所破解。

過去,破解(jie)廣(guang)泛使用(yong)的(de)(de)基準測(ce)試,AI需要(yao)數十年(nian)的(de)(de)時間,而現在只要(yao)幾個月。

而圖(tu)靈測(ce)(ce)試(shi)(shi)雖(sui)然名(ming)氣大,但(dan)從問(wen)題深度(du)和難度(du)上(shang),并不如當下(xia)最困難的(de)基準(zhun)測(ce)(ce)試(shi)(shi),也就是(shi)類似GPQA的(de)測(ce)(ce)試(shi)(shi),內容是(shi)博士級別的(de)生(sheng)物(wu)、化學和物(wu)理(li)問(wen)題。

阿(a)申(shen)布(bu)倫納(na)估計,GPT-4進化到GPT-4o,或者到GPT-5模型迭(die)代后,這(zhe)一(yi)基準測試也將作廢。

為什(shen)么(me)人類設置的難(nan)題,會(hui)這么(me)快(kuai)被(bei)AI所破解?原因就(jiu)是,AI學習能力真的太快(kuai)了!

2019年發布的(de)GPT-2模(mo)型,智力水(shui)平僅(jin)僅(jin)于學齡前兒童(tong)相仿,只能簡單(dan)串起(qi)一些看似合理的(de)句子,但是(shi)卻(que)無法從1數到5,也無法完成總結類任務(wu);

2020年發布的(de)GPT-3模(mo)(mo)型,智力水(shui)平大致(zhi)達(da)到了小學生的(de)水(shui)平,能(neng)生成篇幅更長(chang)的(de)模(mo)(mo)型,并能(neng)完成一些基礎的(de)算術任務和語(yu)法糾錯(cuo);

2022年發(fa)布的GPT-4模型,智(zhi)力水平(ping)就能(neng)與較為(wei)聰明(ming)的高(gao)中(zhong)生相似,能(neng)編寫復雜(za)的代碼(ma)并進行(xing)迭代調(diao)試,還能(neng)完成高(gao)中(zhong)數學競賽題。

等(deng)到2024年,更(geng)先進GPT-4o,更(geng)是完成(cheng)了對(dui)GPT-4的全方位超(chao)越。

相比較人(ren)類,正常(chang)人(ren)類從小學提(ti)升到初中(zhong),需(xu)要六年的時間;初中(zhong)提(ti)升到高中(zhong),又需(xu)要三年的事件。

而AI的(de)進化,則是兩年一個(ge)臺階(jie)的(de)越級進化,遠遠超過正常人(ren)類的(de)水平。

超級人工智能時代

“在2027年,我們(men)就(jiu)有極大(da)可能實(shi)現AGI(超級人工智(zhi)能)。”

這是阿(a)申布(bu)倫納的(de)推斷(duan),他的(de)數據支(zhi)撐是GPT-2到GPT-4的(de)模型迭代趨勢。

從2019-2022年(nian)的(de)(de)4年(nian)時間里,ChatGPT算(suan)力和算(suan)法效(xiao)率(lv)都(dou)在以(yi)每年(nian)0.5個數量(liang)級(1個數量(liang)級=10倍)的(de)(de)速度發展。

再加上可能(neng)出(chu)現(xian)的釋放模(mo)型性能(neng)的技術突破,等到了2027年(nian),AGI(超(chao)級人工智能(neng))時代就會降(jiang)臨,AI工程師(shi)完(wan)全(quan)可以(yi)取代人類工程師(shi)的所(suo)有(you)工作(zuo)。

AI的“超(chao)級進(jin)化”,背后是(shi)算力與資(zi)源的巨額消(xiao)耗。

AI研究機構Epoch AI評(ping)估報告顯(xian)示,GPT-4訓練使用的(de)原始計算(suan)量比GPT-2多約(yue)3000-10000倍。

這無疑是個可怕的數據,據阿申(shen)布倫納估計,到2027年底,將(jiang)會出(chu)現2個數量級的算力增長,用電(dian)量相當于美(mei)國一個中小型(xing)的州的用電(dian)量。

也就是(shi)說,要拿一個省(sheng)份的用電(dian)量(liang),來支撐起一個AI大(da)模型的日常訓練,這(zhe)還是(shi)GPT-4的水準,還遠(yuan)不到AGI(超級人(ren)工智能)的標準。

周鴻祎對(dui)阿申布倫納(na)的(de)言論并不認同,甚至有些“不切實(shi)際,更(geng)像是(shi)科幻小說”。

他表示,如(ru)果(guo)一(yi)個(ge)(ge)AGI(超級人工智(zhi)能)的誕(dan)生就需(xu)要多個(ge)(ge)省份的電力資(zi)源(yuan),那么有10個(ge)(ge)以上(shang)的AGI,就能把(ba)整個(ge)(ge)地球的資(zi)源(yuan)抽干殆盡。

周鴻祎給出了自(zi)己對AI的擔憂,他(ta)認(ren)為如(ru)果(guo)在未來(lai)誕(dan)生出一(yi)個AGI,它就會取代人類工(gong)程師(shi)負責對AI大模型的開發,那么(me)就會有一(yi)個24小時日以(yi)繼夜(ye)工(gong)作、讓算法和技(ji)術突破的更快,形(xing)成極為夸張的正循環。

在“機(ji)器人(ren)改造(zao)機(ji)器人(ren)”“機(ji)器人(ren)改造(zao)算法”的(de)模式(shi)下,AI的(de)智力水平會從人(ren)類(lei)進化到超(chao)人(ren),那么(me)就會上演“硅基生物(wu)VS碳基生物(wu)”的(de)好(hao)萊塢戲碼。

雖然周鴻祎反對阿(a)申布(bu)倫納(na)的(de)言論(lun),但(dan)同樣認為(wei)智能(neng)大爆炸(zha)之后(hou)的(de)“超級(ji)智能(neng)時(shi)代(dai)”,將是人類歷史上最動蕩、最危險、最緊張(zhang)的(de)時(shi)期。

這并不是(shi)周(zhou)鴻(hong)祎(yi)在社交平臺上,第一次對(dui)AI領域充斥(chi)著憂慮。早在2023年(nian)年(nian)初,GPT-4剛剛火(huo)遍全(quan)球(qiu)的(de)時候,周(zhou)鴻(hong)祎(yi)就已經表(biao)達過對(dui)AI安全(quan)的(de)擔憂。

周鴻祎表示(shi):原(yuan)來的人(ren)工智能(neng)給人(ren)的感覺像“人(ren)工智障”,雖然能(neng)做一些(xie)技術比如人(ren)臉識別、語音識別,但并不能(neng)理(li)解你說(shuo)的什么。但是ChatGPT模型(xing)不僅能(neng)夠通過(guo)圖靈試驗,而且它(ta)有自(zi)(zi)己的人(ren)設、自(zi)(zi)己的觀(guan)點,按照進化速度、摩(mo)爾(er)定律,如果進一步訓(xun)練下去,ChatGPT也(ye)許就能(neng)實現自(zi)(zi)我意識的突破(po)。

一(yi)旦(dan)自我意識突破,它就有可能控(kong)制全網的(de)電腦,就會認為比人(ren)類(lei)高明很多。在它眼里,人(ren)類(lei)這(zhe)個(ge)物種(zhong)其實(shi)(shi)無論從(cong)存(cun)儲、算力(li)、反應能力(li)、知識面上比它差太(tai)遠,它就能反過來(lai)奴役人(ren)類(lei),科(ke)幻正離(li)現(xian)實(shi)(shi)越(yue)來(lai)越(yue)近。

作(zuo)為360的創(chuang)始(shi)人,AI安全問題,周鴻祎的顧(gu)慮更多。

無人在意的AI安全

OpenAI作(zuo)為AI時(shi)代的領頭羊,面對AI安全的全球輿論,它做了什么嗎?

顯(xian)然是沒(mei)有的(de),甚至OpenAI還在今年解散了(le)負責AI安全(quan)的(de)“超級對齊(qi)團(tuan)隊”。

在(zai)去年(nian),OpenAI首席(xi)科(ke)學家伊利(li)亞(ya)·蘇斯克沃就因為AI安全(quan)問題,對CEO山姆·奧(ao)特(te)曼(man)(man)進行彈(dan)劾,但最終還是山姆·奧(ao)特(te)曼(man)(man)笑(xiao)到最后,伊利(li)亞(ya)·蘇斯克沃被(bei)趕(gan)出公司。

伊(yi)利亞·蘇斯克沃離開OpenAI后,在6月20日宣布成立新公司(si)SSI(超(chao)級安全智能(neng)Safe SuperIntelligence)。

最在意AI安全的伊利亞·蘇斯克(ke)沃離(li)職,上(shang)文(wen)提到(dao)了利奧(ao)波德·阿申布倫納就(jiu)以“泄密”為由,被OpenAI同(tong)樣趕(gan)出了公司。

這也是(shi)他在社交平臺發布165頁的文(wen)檔,曝(pu)光OpenAI的原因。

甚(shen)(shen)至,曝光OpenAI的(de)吹哨人(ren)(ren),還不止阿申布倫納一人(ren)(ren),在上個月,有(you)一批OpenAI的(de)前(qian)員(yuan)工和(he)現(xian)員(yuan)工聯合(he)起來,公開發表了一封聯名信(xin),聲(sheng)明OpenAI缺少監管,人(ren)(ren)工智能系統已經(jing)能對(dui)人(ren)(ren)類(lei)社會造成嚴重(zhong)危害,未來甚(shen)(shen)至能“滅絕人(ren)(ren)類(lei)”。

雖然(ran)“滅(mie)絕人類”這個說法過(guo)于(yu)驚悚,但(dan)在解(jie)散超(chao)級對齊(qi)團隊之后,OpenAI GPT商店充斥(chi)著(zhu)垃圾(ji)郵件(jian),并違反平(ping)臺的服(fu)務條(tiao)款從YouTube抓(zhua)取數據。

看到(dao)AI安全在OpenAI的地位(wei),越(yue)來越(yue)多的安全研究人員,選擇另(ling)謀高就。

艾隆·馬斯克也忍不(bu)住抨擊山姆·奧特曼:“安(an)全(quan)并(bing)不(bu)是OpenAI的首要任務。”

對于(yu)外(wai)界(jie)的批評,山姆·奧特曼置(zhi)若罔聞,他已經把(ba)全部精力(li)用于(yu)推動OpenAI徹底轉向營(ying)(ying)利實(shi)體(ti),不再由非營(ying)(ying)利性組織控制。

如果(guo)OpenAI轉型為(wei)營利(li)組織后(hou),有(you)限合(he)(he)伙人每年利(li)潤分(fen)紅(hong)的(de)限制就不(bu)復(fu)存(cun)在了,巨(ju)額回報(bao)激勵能夠進一步擴大合(he)(he)伙人范圍,也有(you)利(li)于OpenAI走向IPO。

也(ye)就是說,估值高達(da)860億美(mei)元的OpenAI(約(yue)6244億人(ren)民幣),將能(neng)給山姆·奧特曼本人(ren)帶來(lai)更多的財富(fu)。

在Dollar面前,山姆·奧特曼毅然(ran)決然(ran)的(de)放棄了AI安全。

AI 計(ji)算機 人工智能(neng)
評論
還可輸入300個字
400-858-9000
免費服務熱線
郵箱
09:00--20:00
服務時間
投訴電話
投融界App下載
官方微信公眾號
官方微信小程序
Copyright ? 2024 浙江投融界科技有限公司(xxccv.cn) 版權所有 | ICP經營許可證:浙B2-20190547 | | 浙公網安備330號
地址:浙江省杭州市西湖區留下街道西溪路740號7號樓301室
浙江投融界科技有限公司xxccv.cn版權所有 | 用戶協議 | 隱私條款 | 用戶權限
應用版本:V2.7.8 | 更新日期:2022-01-21
 
在線客服
微信訂閱