【大紀元2023年06月01日訊】(大紀元記者高杉編譯報導)奧特曼和其他一些科技界領袖警告說,人工智能(AI)可能給人類帶來滅絕的風險,與爆發核戰爭的後果相當。
人工智能行業專家和科技領袖在一封公開信中表示,人工智能可能導致人類滅絕。而減少與該技術有關的風險,應該是全球的優先事項。
於週二(5月30日)發表的這份聲明中寫道:「降低人工智能帶給人類滅絕的風險,與其它規模的社會風險——如疫情和核戰爭——相比,應該是一個全球優先事項。」
OpenAI公司是人工智能聊天機器人ChatGPT的製造商。該公司首席執行官山姆‧奧特曼(Sam Altman),以及谷歌人工智能部門DeepMind和微軟的高管,都支持並簽署了這份人工智能安全中心(Center for AI Safety)的簡短聲明。
在聊天機器人ChatGPT於2022年11月份公開發布、並供公眾使用後,該人工智能技術在隨後的數月內迅速走紅,而且發展速度變得更快。
在發布後的短短兩個月內,ChatGPT的用戶數量就達到了1億。該人工智能聊天機器人能夠對用戶的提示,作出類似人類的反應,該能力讓研究人員和公眾感到驚訝。這表明,人工智能完全可以模仿人類,並取代人類完成工作。
週二的這份聲明說,關於「人工智能帶來廣泛的、重要和緊迫的風險」的討論越來越多,但這些討論可能「很難涉及到最先進的人工智能可能導致的、最嚴重的風險」,而發布該聲明的目的,就是要克服這一障礙,開啓對該問題的討論。
可以說,ChatGPT引發了人們對人工智能的更多的認識和興趣。現在,世界各地的主要科技公司,都在競相開發旨在超越競爭對手的AI產品和AI能力。
奧特曼在3月曾承認,他本人對人工智能感到「有點害怕」。因為他擔心專制政權會開發和利用這種技術。其他一些科技領袖,如特斯拉公司的埃隆‧馬斯克(Elon
Musk)和前谷歌首席執行官埃里克‧施密特(Eric Schmidt)等等,也都對人工智能可能給社會帶來的風險提出了警告。
在3月份的一封公開信中,馬斯克、蘋果公司聯合創始人史蒂夫‧沃茲尼亞克(Steve
Wozniak),以及一些科技界領袖敦促人工智能研究實驗室,停止訓練比GPT-4更強大的AI系統。GPT-4是OpenAI公司外界所知的、最新最大型的語言模型。他們還呼籲將這種針對更高級人工智能的開發工作暫停六個月。
信中說:「當代人工智能系統已開始在一般任務上與人類展開競爭。」
信中問道:「我們是否應該把所有的工作都自動化,包括那些能夠帶來成就感的工作?我們是否應該開發非人類的大腦?它們的數量最終可能會超過我們,它們的智慧最終會勝過我們,它們能夠最終淘汰和取代我們。我們是否應該冒著失去對我們文明控制的風險去開發它們?」
在上週,施密特再次警告說,隨著人工智能技術的發展,人類將面對與AI相關的「生存風險」。
責任編輯:葉紫微
沒有留言:
張貼留言