機(jī)器人可不可能反噬人類 機(jī)器人管家的可行性(2)

2016-07-01 13:03:44 來源:科技訊作者:佚名 人氣:892 次閱讀 362 條評(píng)論

機(jī)器人管家的可行性,機(jī)器人可不可能反噬人類。說到機(jī)器人反噬人類,我們第一個(gè)想到的可能就是終結(jié)者,這部經(jīng)典的作品中人工智能天網(wǎng)暴走之后選擇毀滅人類,而與之相近的是近年上映的復(fù)仇者聯(lián)盟中的奧創(chuàng),幾乎是一模一樣的進(jìn)程,也是一模一樣的結(jié)果!...


  最近馬斯克聯(lián)合亞馬遜等公司為OpenAI項(xiàng)目投資10億美元,當(dāng)然這款人工智能當(dāng)然目的不會(huì)是什么維護(hù)世界和平,這款人工智能機(jī)器人是一款能夠處理“基本家務(wù)”的家務(wù)機(jī)器人,開發(fā)團(tuán)隊(duì)在一篇博客中寫道,“我們打算開發(fā)一種語言處理模型,該模型能夠處理語言指令,當(dāng)語言指令有些模糊的時(shí)候能夠詢問清楚具體的指令意圖”。此外,該機(jī)器人還需要做到能夠進(jìn)行日常會(huì)話,完全理解一篇文檔和能夠執(zhí)行較為復(fù)雜的語言命令

機(jī)器人管家的可行性 機(jī)器人可不可能反噬人類

  但是這款機(jī)器人在軟件開發(fā)方面,在系統(tǒng)算法方面還是需要足夠的牢靠!畢竟隨意不希望真的出現(xiàn)終結(jié)者。程序是會(huì)出錯(cuò)的,在復(fù)雜的程序中誰也沒法想到一條短短的指令在出錯(cuò)后會(huì)變成什么,所以安全依然很重要,尤其是在這種擁有高度靈活的機(jī)器人智商,世界各地每年都有車窗機(jī)器人殺死操作這的事件發(fā)生,希望馬斯克和亞馬遜可以小心謹(jǐn)慎,再謹(jǐn)慎!

機(jī)器人管家的可行性 機(jī)器人可不可能反噬人類

您可能感興趣的文章

相關(guān)文章