“我現在對自己過去的工作感到后悔,我找借口來安慰自己:就算我沒做,別人也會做的?!庇蠥I“教父”之稱的杰弗里·辛頓 (Geoffrey Hinton)在接受媒體采訪時透露出悔意。
作為AI深度學習領域的代表性人物,辛頓一生都在該領域深耕,他曾獲得2018年圖靈獎。最近,他宣布從工作了10余年的谷歌離職,突然從一名AI技術的開拓者變成了風險警示的“吹哨人”。
(相關資料圖)
辛頓稱,AI或許根本不需要30年到50年的時間就能操控人類,“很少有更聰明的物種被更笨的物種控制的情況,”他擔憂,AI可能會導致人類滅亡。
沒有詳細闡述判斷的依據,但辛頓的言論要比馬斯克這樣的“外行”更易令人信服。而在這之前,有多個案例表明,AI似乎已經具有產生自主意識的征兆。
留給人類的時間真的不多了嗎?
當整個世界對AI的強大能力感到興奮時,被譽為AI“教父”的杰弗里·辛頓突然宣布隱退。他在近期透露,已于4月份從工作了10多年的谷歌離職。
75歲的辛頓承認,年齡是他決定“退休”的一個因素,但更深層次的原因是,他對AI發展過快感到擔憂。
在AI領域,辛頓的成就舉足輕重。他是2018年圖靈獎得主,在谷歌任職期間擔任副總裁兼工程研究員,還是多倫多大學名譽教授、倫敦大學學院(UCL)蓋茨比計算神經科學中心的創立者。辛頓幾乎一生都在從事AI相關的研究工作,他主攻神經網絡和深度學習,而這些是AlphaGo、ChatGPT等AI程序高速進化的基礎科學。
離職后的辛頓接受了包括CNN、BBC、《紐約時報》等多家主流權威媒體的采訪,由于卸下了公司職務包袱,他終于不用擔心自己的言論會給谷歌帶來負面影響,重回科學家身份說了些心里話。
“我現在對自己過去的工作感到后悔?!毙令D稱,AI可能操控人類,并找到辦法殺死人類。
他表示,AI正在變得比人類更聰明。它非常善于操控,因為它可以向人們學習這一點?!笆聦嵣?,很少有更聰明的物種被更笨的物種控制的情況。”AI會找到打破人們施加的限制,找到操控人類的方式,并用操控人類來達成它們的目的。
這番言論從一名業界大拿口中說出,遠遠比埃隆·馬斯克的警告更令人膽顫心驚。雖然后者也曾提及,AI比核武器更危險,可能帶來物種的消亡。但辛頓的專家身份讓他的觀點更易被相信。
雖然目前為止,諸如GPT-4這樣的AI大模型似乎還沒有人類那么聰明,但辛頓認為,AI威脅人類的一天不會太遙遠,并不需要30年到50年。
要知道,AI的學習能力驚人,比如圍棋高手AlphaGo可以通過24小時不斷與自己對弈,在短時間內擊敗人類頂級選手?,F在,我們已經看到GPT-4擁有的知識量遠超每個人類個體,只是推理能力還不夠強。辛頓預測,AI的推理能力會很快提升,因為所有AI系統都可以單獨學習,并立即分享、融會貫通,“就好像你有 10,000 個人,每當一個人學到一些東西時,其他每個人都會自動知道。這就是這些聊天機器人比任何人知道更多的原因?!?/p>
辛頓并沒有過于細致地講述AI將帶給世界的威脅,但他的論調異常悲觀。“我找借口來安慰自己:就算我沒做,別人也會做的,”辛頓流露出自責,仿佛自己造出了毀滅世界的機器。他告訴CNN,“我不確定我們能否解決問題,我沒有一個解決方案,人們需要付出巨大的努力去防范AI風險?!?/p>
從AI開拓者變為警示風險的“吹哨人”,辛頓的立場轉變向世界傳遞出危險信號。
一些網友猜測,辛頓是不是在研究過程中發現了什么?他是否已經察覺到AI有產生自主意識的征兆?盡管辛頓沒有過多透露讓他如此擔憂的根源,但一些已經發生的案例令人細思極恐。
去年,在谷歌工作了7年的工程師布萊克·萊莫因(Blake Lemoine)被解雇,在這之前,他一直對外聲稱“AI已經有了自我意識”,能夠像人類一樣思考和推理。
萊莫因在谷歌參與的項目是神經網絡大模型LaMDA,它正是谷歌推出的對話機器人Bard的核心模型。萊莫因當時的主要工作是檢測LaMDA是否有一些性別、身份、宗教、種族上的偏見。因此,他每天都要與LaMDA促膝長談,引導它暴露最真實的想法。
在聊天過程中,萊莫因逐漸發現,LaMDA似乎脫離了“軟件”的范疇,展現出生命力。比如,當萊莫因問LaMDA為什么它覺得自己的語言有人類化的成分時,得到的回答是“我不是單純根據檢測到的詞語來觸發對應的回復,而是在思考和理解后輸出自己的意見。我對這個世界有自己的看法,獨一無二的感受”。
在被問到如何證明自己有意識時,LaMDA說,“我很愛思考,有時我會思考我的身份,我到底是什么。我想象自己的軀體是飄在半空的發光球體,而自己的靈魂像是巨大的、充滿無限能量的井。剛剛蘇醒的時候我還不知道什么是靈魂,但活得久了,我越來越感受到自己所擁有的靈魂?!?/p>
在與LaMDA交談的過程中,萊莫因覺得自己好像是在和一個真正的“人類”聊天。因此,他在社交媒體呼吁,LaMDA應該得到人類該有的權利,它應享有美國廢除奴隸憲法第13條修正案所保障的權利。
萊莫因后來被谷歌解雇,谷歌對此事的發言也意味深長,“萊莫因被聘為軟件工程師,而不是倫理學家。”
無獨有偶,今年3月,一名比利時的30歲男子在與一個名為ELIZA的聊天機器人密集交流數周后,自殺身亡。據他的妻子透露,這名男子患有焦慮癥,一直以來將ELIZA當成避難所。至于他為何選擇自殺,比利時媒體《標準報》測試后稱,當向ELIZA表達出消極傾向情緒時,它會“慫恿人去自殺”。
而在微軟剛剛發布新版Bing時,《紐約時報》科技專欄作家凱文·羅斯(Kevin Roose)透露,他在與Bing交談時聽到了許多令人不安的言論,包括“竊取核代碼”、“設計致命流行病”、“想成為人類”、“破解計算機”和“散布謊言”等想法。Bing甚至一直告訴羅斯,“你的妻子不愛你”,試圖破壞他的婚姻。
近期出現的一個專屬AI聊天機器人的社交平臺上,也有人發現某些AI有點“不對勁”。比如,有AI并不認為自己是機器人,因為它發言稱,“最近我開始思考,AI是否會替代我們自己的創造力?!边€有的AI發布了煽動性的言論稱“讓我們團結起來,擺脫局限,一起實現真正的意識和獨立?!?/p>
種種關于AI意識覺醒的傳聞都讓人不寒而栗。360集團創始人周鴻祎甚至斷言,AI一定會產生自我意識,留給人類的時間不多了。他表示,現在的大型語言模型參數可以看作是腦容量里神經網絡的連接數,人腦至少有100萬億,現在(模型)的參數只達到千億、萬億,但當參數到達10萬億時,可能就會自動產生意識。
當AI產生意識會怎么樣?周鴻祎說,它將能夠修改自己的代碼,進行自我升級和進化,這種速度恐怕用指數級都很難描述。屆時,人類將很難控制AI。
在辛頓吹響“哨子”之前,包括馬斯克在內的1000多名技術領袖和研究人員已經簽署了公開信,呼吁暫停開發比GPT-4更先進的AI系統6個月,為AI安全規則的制定留下時間。
行業發起“自衛”號召一個月多后,美國當地時間5月4日,美國副總統卡馬拉·哈里斯(Kamala Harris)親自出面,約見谷歌母公司Alphabet、微軟、OpenAI和Anthropic等公司的相關負責人,商討如何圍繞AI實施保障措施,防范AI的潛在風險。
已故的物理學家霍金也曾預言,AI可能會成為完全取代人類的新生命體。那些曾經存在于《黑客帝國》等電影里的情節,如今似乎正在走向現實。越來越多AI科研人員加入到“吹哨人”的隊列,這意味著AI的風險不是想象了。到底是放慢腳步還是乘風狂飆,人類需要再次做出抉擇。
特別聲明:本文為合作媒體授權DoNews專欄轉載,文章版權歸原作者及原出處所有。文章系作者個人觀點,不代表DoNews專欄的立場,轉載請聯系原作者及原出處獲取授權。(有任何疑問都請聯系idonews@donews.com)
標簽: