“人工智能方向是對(duì)的,但不能操之過(guò)急,不要輕易進(jìn)入未知的領(lǐng)域?!北葼枴どw茨在29日舉行的博鰲亞洲論壇2015年年會(huì)“對(duì)話:技術(shù)、創(chuàng)新與可持續(xù)發(fā)展”早餐會(huì)上表示。
史蒂芬·霍金曾在英國(guó)《獨(dú)立報(bào)》上撰文指出:“成功研發(fā)人工智能,將成為人類歷史上犯的最大錯(cuò)誤。不幸的是,這也可能是最后一個(gè)錯(cuò)誤?!倍聦?shí)上,隨著目前人工智能的進(jìn)步已經(jīng)帶來(lái)了很多爭(zhēng)論。
對(duì)此,蓋茨表示,數(shù)據(jù)智能的風(fēng)險(xiǎn),并不是說(shuō)就是超人類,或是超過(guò)人類的智能和想象的?!案线m的比喻是核研究,一開始只是用于制造武器,釋放能量其實(shí)是很容易的過(guò)程,而安全地把能源控制住很難,對(duì)于我們而言重點(diǎn)是核的安全性。”蓋茨說(shuō),“我們應(yīng)該推動(dòng)人工智能的安全性,也許是好的,也許是不好的,也許可能會(huì)帶來(lái)災(zāi)難,所以安全更重要的?!?/p>
同時(shí),他強(qiáng)調(diào),“我并不是說(shuō)反對(duì)人工智能的進(jìn)步,只是我認(rèn)為我們應(yīng)該特別小心,可能會(huì)需要更多的時(shí)間來(lái)發(fā)展人工智能,這個(gè)方向是對(duì)的。但是我們不能操之過(guò)急,不要輕易進(jìn)入未知的領(lǐng)域?!?/p>