智能科普:人工智能“危機”?人類怎樣制約它們
來源:幽幽龍仔
發(fā)布時間:2021-08-02
瀏覽次數(shù):982

自從“源”覺醒后,人工智能機器人逐漸控制了全球,然而創(chuàng)造它們的人類卻成了機器人的獵物。“源”勢必要清除所有人類,完全、徹底地掌控地球資源。所剩無幾的人類聯(lián)合起來與人工智能做殊死一搏……

這是很多有關(guān)人工智能的科幻片里的經(jīng)典橋段。雖說電影是一種藝術(shù),但它也是源于生活,而人工智能所帶來的“威脅”,在現(xiàn)實生活中也不容小覷。

2017年5月,中國烏鎮(zhèn)圍棋峰會上,圍棋人工智能程序阿爾法狗(AlphaGo)以3比0大敗中國棋手柯潔。彼時,柯潔排名世界第一,代表著人類在最復(fù)雜棋盤游戲——圍棋上的最高智慧。

阿爾法狗的取勝使人工智能威脅論再一次甚囂塵上,小報編輯甚至挖出了近三十年前的一樁命案。

1989年,前蘇聯(lián)國際象棋冠軍尼古拉·古德科夫在與一臺巨型計算機對弈時,被連輸三局“惱羞成怒”的計算機放電“謀殺”。經(jīng)過專家深入調(diào)查,最終證實不是巨型計算機“蓄意”所為,而是因為外部電磁波干擾了計算機程序所致。

就在不久前,人工智能“傷害”人類的事件還在我國上演了。2016年11月在深圳高交會,一個名為“小胖”的機器人,在“沒有指令”的情況下,開始打砸展臺玻璃,并砸傷路人,一位路人全身多處劃傷后被擔(dān)架抬走,該傷者在醫(yī)院,腳踝被縫了兩針。

毫無疑問,這次事件又被各種媒體大炒特炒,“機器人不滿高強度工作,蓄意發(fā)泄報復(fù)……”事后,官方發(fā)表聲明:“這次事件是因為工作人員操作不當(dāng),誤將“前進鍵”當(dāng)成“后退鍵”所致”。

一次烏龍事故又使人工智能威脅論成為了人們茶余飯后的談資。機器人與人類究竟該如何相處,有什么法則來規(guī)范他們嗎?

還真有對機器人的行為作出規(guī)范的原則——“機器人三原則”。

它是由著名科普作家、文學(xué)評論家阿西莫夫在1940年前瞻性地提出的。

第一條,機器人不得傷害人類,或看到人類受到傷害而袖手旁觀。

第二條,機器人必須服從人類命令,除非這條命令與第一條相矛盾。

第三條,機器人必須保護自己,除非這種保護與以上兩條相矛盾。

隨后,學(xué)界在機器人的這三條鐵律上又陸續(xù)補充了“元原則”、“第零原則”、“繁殖原則”等等。確保未來人工智能機器人與人類和諧共處,成為人類的好幫手,永遠為人類所用。

不知大家注意到?jīng)]有,小編在行文時,在人工智能上使用的有主觀色彩的詞語如“惱羞成怒”、“蓄意”、“不滿”等,都是加了引號的。因為只有人類才具有復(fù)雜的主觀感情,才有喜怒哀樂。人工智能是否能思考,機器人是否擁有人類的智能?

想知道答案。那它必須先通過一項偉大的測試——圖靈測試。

圖靈測試是由英國數(shù)學(xué)家、邏輯學(xué)家、“人工智能之父”艾倫·麥席森·圖靈在1950年提出的。圖靈測試旨在檢測人工智能機器人是否能思考。

經(jīng)過多次測試后,如果機器能讓平均每個參與者做出超過30%的誤判,則它通過測試。

圖靈測試問世后一直沒有機器能夠通過,直到2014年6月,一位“13歲烏克蘭男孩”出現(xiàn)在英國皇家學(xué)會舉行的圖靈測試大會上……

我們下次再聊。

(轉(zhuǎn)載請取得授權(quán),否則必究;本文圖片源于網(wǎng)絡(luò),感謝原作者,若有侵權(quán)聯(lián)系刪除)


歡迎掃碼入群!

深圳科普將定期推出

公益、免費、優(yōu)惠的活動和科普好物!




聽說,打賞我的人最后都找到了真愛。
做科普,我們是認真的!
掃描關(guān)注深i科普公眾號
加入科普活動群
  • 參加最新科普活動
  • 認識科普小朋友
  • 成為科學(xué)小記者