近日,德國(guó)奧斯納布呂克大學(xué)認(rèn)知科學(xué)學(xué)院的一項(xiàng)最新研究表明,人類在駕駛過(guò)程中做出的道德抉擇并沒(méi)有此前認(rèn)為的那么復(fù)雜,或者說(shuō)與環(huán)境的關(guān)聯(lián)度不大。這項(xiàng)研究成果顯示,人類駕駛員做出的道德選擇,是在相對(duì)簡(jiǎn)單的以生命為基準(zhǔn)的價(jià)值觀指導(dǎo)下做出的。這意味著通過(guò)編程的方式令自動(dòng)駕駛汽車(chē)做出合乎人類社會(huì)道德取向的選擇,應(yīng)該并不是件難事。
這項(xiàng)研究共有105名志愿者參與,所有人被放置于一處虛擬現(xiàn)實(shí)的場(chǎng)景中:霧天中你駕駛車(chē)輛在郊區(qū)中轉(zhuǎn)悠,之后會(huì)出現(xiàn)一些需要作出兩難選擇的情節(jié),你不得不在「是駕車(chē)撞向行人、動(dòng)物還是無(wú)生命物體」之間進(jìn)行抉擇。
按照之前的假設(shè),人類駕駛員在面對(duì)這三種情況時(shí)做出的選擇,很大程度上取決于當(dāng)時(shí)的環(huán)境,因此超越了計(jì)算機(jī)建模的能力?!安贿^(guò)我們發(fā)現(xiàn)事實(shí)恰恰相反,這種兩難場(chǎng)景下的人類行為可以借助「相對(duì)簡(jiǎn)單的以生命為基準(zhǔn)的價(jià)值觀模型」進(jìn)行建模,每一位實(shí)驗(yàn)參與者在遇到行人、動(dòng)物或無(wú)生命物體做出的判斷,基本上都遵循類似的規(guī)則?!边@項(xiàng)研究的第一作者Leon
Sütfeld在接受《科學(xué)日?qǐng)?bào)》采訪時(shí)如是解釋道。
此前,網(wǎng)絡(luò)上曾有不少言論擔(dān)憂自動(dòng)駕駛汽車(chē)能否給人類社會(huì)帶來(lái)好處。特斯拉CEO埃隆·馬斯克是自動(dòng)駕駛技術(shù)堅(jiān)實(shí)的擁護(hù)者,他甚至“毫不客氣地”回應(yīng)那些不支持的人,稱其“行為無(wú)異于謀殺”。馬斯克認(rèn)為自動(dòng)駕駛汽車(chē)能夠變得更智能,更中立,甚至要比人類更能開(kāi)好車(chē),避免更多嚴(yán)重交通事故的發(fā)生。
不過(guò)目前自動(dòng)駕駛技術(shù)仍處于發(fā)展初期,至于能挽救多少生命取決于工程師如何進(jìn)行編程,這也是奧斯納布呂克大學(xué)這項(xiàng)研究要探尋的問(wèn)題。不過(guò)如果我們期望自動(dòng)駕駛汽車(chē)的表現(xiàn)要比人類更好,那又為什么要通過(guò)編程使其更像人類呢?
作為這項(xiàng)研究的主要作者,Gordon
Pipa教授解釋稱,“我們其實(shí)需要搞明白的是,自動(dòng)駕駛系統(tǒng)是否應(yīng)該做出基于人類道德標(biāo)準(zhǔn)的判斷。如果需要的話,那么它們應(yīng)該通過(guò)模仿人類的選擇繼而做出有道德的行為嗎?或者說(shuō)它們應(yīng)該遵循一定的道德規(guī)則,那這樣的規(guī)則又是什么?而且更關(guān)鍵的問(wèn)題在于,一旦發(fā)生了不好的事情,又到底是誰(shuí)應(yīng)該承擔(dān)責(zé)任呢?”
總的來(lái)說(shuō),人工智能的道德標(biāo)準(zhǔn)依然是道德范疇內(nèi)十分模糊的領(lǐng)域。業(yè)界也在大量的嘗試將一系列相關(guān)法律通過(guò)編程的方式來(lái)控制人工智能的行為。目前德國(guó)國(guó)土交通省已經(jīng)制定了20條自動(dòng)駕駛汽車(chē)應(yīng)該遵守的相關(guān)規(guī)則。
那么未來(lái)自動(dòng)駕駛汽車(chē)能夠變得多安全取決于工程師如何進(jìn)行編程,盡管這項(xiàng)任務(wù)并不簡(jiǎn)單,但先搞清楚人類駕駛員在不同的場(chǎng)景中是如何作出反應(yīng)的,這是最關(guān)鍵的。
|