【大紀元2023年05月14日訊】(大紀元記者高杉編譯報導)被稱為「人工智能教父」的辛頓預測稱,人工智能只需5到20年,就能超越人類的智慧。而在此之前,人類需要找到控制它的方法。
傑弗里‧辛頓(Geoffrey Hinton)最近辭去了谷歌工程副總裁的職務,並為人工智能將帶來的危險而大聲疾呼。他在於週五(5月12日)發表的一篇採訪中再次警告說,隨著人工智能的不斷發展,世界需要找到一種方法,來控制這項新技術。
這名「人工智能教父」通過在線視頻會議對《國家報》(EL
PAÍS)表示,他認為,只發出一封公開信,呼籲在6個月內暫停訓練那些比OpenAI開發的GPT-4更強大人工智能系統,是「完全天真」的。而他所能建議的是,那些擁有非常聰明頭腦的人,應該努力想出「如何控制這些東西的危險」的方法。
辛頓表示:「人工智能是一項神奇的技術——它在醫學、新材料的開發、預測地震或洪水方面,帶來了巨大的進步……但我們仍需要作大量的工作,來了解如何遏制人工智能。」
他說:「被動地等待人工智能勝過我們是毫無用處的。我們必須在其發展過程中就控制它。我們還必須了解如何遏制它,如何避免它帶來的負面後果。」
例如,辛頓認為,所有政府都一定要對人工智能製出的虛假圖片、圖像進行標記。
這位科學家說,現在能做的最好的事情,就是「在開發這項技術的同時,我們要投入同樣多的精力,來確保它的安全性」。但他說,目前根本沒有人去這樣做。
當被問及他與同事分享對人工智能問題的擔憂時,辛頓說,他認識的許多最聰明的人,都對該問題「嚴重關切」。
他問道:「我們已經進入了完全未知的領域。我們有能力建造比我們自己更強大的機器,我們仍在掌控一切。但如果我們開發出比我們更聰明的機器呢?我們沒有應對這些東西的經驗。」
辛頓說,人工智能能夠帶來許多不同的危險。他列舉了就業減少和製作假新聞等等。辛頓指出,他現在認為,人工智能能夠比人腦更有效地做事情,像ChatGPT這樣的模型,有能力短時間內查閱比人類多幾千倍的數據。
他說:「這就是讓我感到害怕的地方。」
辛頓說,在一個粗略的預估中——他說自己對這個預估不是很有信心——人工智能將需要5到20年的時間,來超越人類的智慧。」
在被問道,人工智能最終是否會擁有自己的目的或目標時,辛頓回答說:「這是一個關鍵問題,也許是這項技術能夠帶來的最大危險。」
「所以,最大的問題是,我們是否能夠確保人工智能擁有對我們有利的目標?這就是所謂的對齊問題。而我們有多個理由,解釋為何要對此非常關注。」
他解釋說:「首先是,總會有一些人想要創造人工智能機器人戰士。你不認為,如果可以的話,普京會去開發它們嗎?如果你能讓機器有能力產生出自主的目標,你就可以更有效地做到這一點。而在這種情況下,如果機器是智能的,它很快就會意識到,如果它變得更強大,就能更好地實現它的目標。」
辛頓斷言:「我們有可能無法避免一個糟糕的結局……但也很明顯,我們有機會為這個挑戰做好準備。我們需要大量有創造力和智慧的人。如果有任何方法可以控制人工智能,我們需要在它變得過於聰明之前,找到這個方法。」
責任編輯:林妍
沒有留言:
張貼留言