特斯拉 CEO 埃隆·馬斯克(Elon Musk)在推特揭橥了很多恐怖的 “AI 威逼論”,預(yù)言 AI 在將來會統(tǒng)治人類,風(fēng)險性跨越了朝鮮核危機(jī)。關(guān)于這類 “AI 威逼論”,微軟開創(chuàng)人比爾·蓋茨和微軟CEO 薩提亞·納德拉(Satya Nadella)都表現(xiàn)分歧意,以為該不雅點(diǎn)過于極端、消極,疏忽了人作為 AI 發(fā)明者的自動性和掌握權(quán)。本文譯自VentureBeat。
比爾·蓋茨:擔(dān)憂 AI 撲滅人類,為時髦早
這是我與馬斯克不雅點(diǎn)紛歧致的一點(diǎn)。馬斯克擔(dān)心 AI 會撲滅人類,但現(xiàn)實(shí)上,該擔(dān)憂這個的時刻還遠(yuǎn)遠(yuǎn)未到。我們不該該對此覺得驚恐,但同時也不該該過度悲觀,不克不及疏忽它的能夠性。
——微軟開創(chuàng)人比爾·蓋茨
現(xiàn)階段,我們關(guān)于 AI 的焦點(diǎn)準(zhǔn)繩應(yīng)當(dāng)是:若何進(jìn)步人類的才能?就算 AI 自我進(jìn)修體系做出的決議,也有很多是人類可以把控的。是以,人類可以確保這類體系不涌現(xiàn)成見性或不良的數(shù)據(jù)。與其擔(dān)憂'AI 會掌握人類',倒不如行為起來,我們可以經(jīng)由過程很多辦法來轉(zhuǎn)變將來。掌握是一種選擇,我應(yīng)當(dāng)盡力堅持這類掌握。
——微軟 CEO 薩提亞·納德拉
VentureBeat 撰稿人 John Brandon 也贊成上述不雅點(diǎn),以為 AI 根本上只都邑聽人的指導(dǎo)來行為。
John 表現(xiàn),很多 AI 工程師和機(jī)械人專家都以為,編好法式的 AI 不太能夠會做出格的工作:它們不會忽然疏忽代碼,然后就“黑化”,把你家的車開進(jìn)湖里。代碼很“聽話”,由于人類沒有“交卸”的義務(wù),它相對不會履行。這是由人類主控的品德原則?!督K結(jié)者》不外是好萊塢的理想。
對 AI 應(yīng)堅持恰當(dāng)?shù)男⌒?/p>
不外,John 也提示年夜家,我們依然不克不及對 AI 抓緊小心。
AI 與人類一個很年夜的差異,在于人類會遭到“連續(xù)留意力” (sustained attention)的影響,統(tǒng)一時光只能思慮一件工作,沒法“同心專心兩用”。然則 AI 卻可以同時思慮 100 件工作,一旦觸發(fā)了指令,AI 能夠會激發(fā)連續(xù)串舉措,好比:智能車庫一旦被語音觸發(fā),就有能夠在開門的同時,開燈、開啟家里的供暖體系、還有能夠把家里的爐子打著,從而組成潛伏風(fēng)險。
