展會信息港展會大全

從技術上可能無法給AI寫入“永遠順從人類”的邏輯
來源:互聯網   發布日期:2021-01-17   瀏覽:17446次  

導讀:人類的造物最終取代人類的可怕前景,早已成為現代人心中揮之不去的陰影。 問題是,我們是否能夠把順從人類的思想寫入人工智能的底層邏輯? 幾乎肯定不能。 要注意,想控制一個超出人類理解能力的超級智能,就需要先能夠理解它們的思考方式。但這無疑是矛盾的...

人類的造物最終取代人類的可怕前景,早已成為現代人心中揮之不去的陰影。

問題是,我們是否能夠把“順從人類”的思想寫入人工智能的底層邏輯?

幾乎肯定不能。

要注意,想控制一個超出人類理解能力的超級智能,就需要先能夠理解它們的思考方式。但這無疑是矛盾的。

研究人員寫道:“這是因為超級智能是多方面的,因此有可能動員各種資源來實現人類可能無法理解的目標,更不用說可控了。”

他們的論證方式部分來自于Alan Turing在1936年提出的停機問題。

停機問題就是判斷任意一個程序是否能在有限的時間之內結束運行的問題。該問題等價于如下的判定問題:是否存在一個程序P,對于任意輸入的程序w,能夠判斷w會在有限時間內結束或者死循環。

從邏輯上講,我們無法提前判定一個程序是否能夠運行結束或進入死循環;氐AI,在超級智能狀態下,為阻止AI傷害人類并破壞世界而編寫的任何程序都可能會進入死循環。

“實際上,這使遏制算法無法使用。”德國馬克斯-普朗克人類發展研究中心的計算機科學家Iyad Rahwan說。

研究人員說,另一種自我保護的方法是限制超級智能的能力。例如,可以把AI與互聯網或某些網絡隔離開來。

但是,研究人員指出,如果我們不打算使用AI來解決人類無法解決的問題,那為什么還要創造它呢?限制AI的能力,不如一開始就不研發AI。而如果要推進人工智能,那么我們甚至可能在超級AI出現后,還渾然不知這就是它的不可理解性。

該研究已發表在《人工智能研究雜志》上。

https://www.sciencealert.com/calculations-show-it-d-be-impossible-to-control-a-rogue-super-smart-ai

贊助本站

人工智能實驗室
AiLab云推薦
展開
Copyright © 2010-2021 AiLab Team. 人工智能實驗室 版權所有    關于我們 | 聯系我們 | 廣告服務 | 公司動態 | 免責聲明 | 隱私條款 | 工作機會 | 展會港
AG体育app,AG体育投注,AG手机平台,AG体育平台