【大紀元2023年06月04日訊】(大紀元記者高杉編譯報導)人工智能(AI)的發展速度及其強大的武器化能力,已經令很多軍事和技術專家感到擔憂。一些國會立法者也試圖了解,這種先進的技術到底能做多少事。
據《國會山報》(The Hill)報導,在國土安全委員會(Homeland Security
Committee)任職的堪薩斯州參議員羅傑‧馬歇爾(Roger
Marshall)對此表示:「這真的讓我回到了20世紀30年代、40年代、50年代,以及當時所面對的核物理學。我們馬上就會知道,核物理可以產生能源,但我們也知道,它也可以變成原子彈。」
馬歇爾是眾多立法者之一,他對新聞網站NewsNation表示,人工智能技術的快速發展是不可避免的,但國會應該設置護欄,確保它不會被濫用。
退役空軍少將威廉‧恩雅特(William Enyart)也指出:「我們必須非常關注我們所談到的問題,也就是人工智能近一步發展會出現的、令人意想不到的後果。」
在有報導稱軍方已經開始涉足人工智能武器化,其中包括由AI驅動的武裝無人機項目之後,便出現了越來越多的、要求謹慎對待的聲音。
恩雅特對此警告說:「我們所談論的是,無論是中國人建造它,還是我們建造它,還是伊朗人建造它……一旦它被建造出來,你就無法保守祕密,那是不可能的,那不是科學發展的方式。」
與此同時,甚至那些幫助開發人工智能技術的人,也向國會立法者們發出了相同的警告。在上個月,開發出了ChatGPT人工智能聊天機器人的OpenAI公司的首席執行官薩姆‧奧特曼(Sam Altman),在國會山告訴立法者,人類可能會失去對人工智能的控制。
奧特曼說:「我認為,如果這項技術出了問題,那可能就是個大問題。我們希望對此直言不諱,我們希望與政府合作,防止這種情況的發生。」
此外,5月30日,奧特曼和其他一些人工智能行業專家、科技界領袖,在一封公開信中警告說,人工智能可能會導致人類滅絕,其風險如同核戰爭。而減少與該技術有關的風險,應該是全球的優先事項。
該公開信中說:「降低人工智能帶來人類滅絕的風險,與其它規模的社會風險——如疫情和核戰爭——相比,應該是一個更為優先的全球事項。」
責任編輯:孫芸
沒有留言:
張貼留言