今日(3月22日)有新聞報道稱,美國警方公布了Uber自動駕駛汽車撞死行人一案事發(fā)前的視頻記錄,視頻顯示,撞車前測試人員在開小差。
三天前,網(wǎng)約車公司Uber在美國亞利桑那州坦佩市的一輛路測無人車,撞死了一位橫穿馬路的49歲婦女,這是全世界第一宗無人車撞死行人的事故,事故引發(fā)了全球輿論震驚,也讓關(guān)于無人車的倫理學爭論再次升溫。
無人駕駛汽車已不是新聞——國外有谷歌、Uber、福特、豐田,國內(nèi)百度、清華大學、國防科技大學,都在研發(fā)無人駕駛技術(shù)。去年,一段百度掌門人李彥宏乘坐無人駕駛汽車上北京五環(huán)的視頻,也引發(fā)了社會各界的關(guān)注和熱議。但顯然,關(guān)于這項技術(shù)的社會學、倫理學討論才剛剛開啟。它所面臨的最大拷問其實是,人工智能如何在倫理情境中做出抉擇?這種預(yù)先設(shè)計的抉擇能夠保證都帶來“善”的結(jié)果么?這是個“元問題”,其他法治、管理和公共安全問題,只是這個問題的子命題。
曾有論者設(shè)想過這樣的場景:想象你的自動駕駛汽車停在路口等待前面的行人過馬路,這時候,你的車子發(fā)現(xiàn)后面有另一輛卡車沖過來,看起來無可避免地要發(fā)生追尾事故了,但是你坐在前排座位上,這樣的事故只會給你帶來一點小傷——至少不會致命。如果你的汽車具備規(guī)避程序,就可以立馬躲開,移到旁邊的車道去,而卡車就會沖進路口,碾壓行人。這種情況下,無人駕駛汽車事前設(shè)定的“規(guī)避”程序,是善還是惡的?
在由人駕駛的汽車里,是讓自己受一點小傷還是讓無辜行人送命,依賴于每個人的抉擇,無論是法律結(jié)果還是道德結(jié)果,也由每個人承擔。但無人駕駛汽車既然有預(yù)定程序,就等于自然承擔了提前解決這一倫理問題的義務(wù)。如果選擇規(guī)避追尾,則對無辜行人有“蓄意傷害”之嫌;如果選擇承擔追尾,則沒有對車主完成保護義務(wù)。
評論者所提出的這一情境,其實是倫理學領(lǐng)域知名思想實驗“電車難題”的變種!半娷囯y題”的內(nèi)容大致是:一個瘋子將五名無辜的人綁在一條電車軌道上,而一輛失控的電車正向他們沖去。幸運的是,你可以拉動操縱桿將電車轉(zhuǎn)至另一軌道。然而,該名瘋子在那條軌道上也綁了一個人。此時此刻,這根操縱桿,你拉還是不拉?在“電車難題”被提出的上個世紀六十年代,手握操縱桿的是“人”,但現(xiàn)在,面臨拷問的是人工智能。
要作答其實更為艱難。因為人的道德選擇多樣,倫理學各個流派產(chǎn)生了各種各樣的回答,比如,功利主義者可能認為犧牲一個人比犧牲五個人更為道德;自由主義者可能認為每個生命的主體權(quán)利是平等的,為了五個人犧牲一個人同樣是“惡”;而情感主義者則認為道德沒有客觀性,怎么選擇取決于個人情感的表達。但問題是,在這種情境下設(shè)計無人駕駛汽車的程序,不啻于要完成人類集體作答,并形成統(tǒng)一的答案,這在哲學意義上是不可能完成的任務(wù)。
上述背景產(chǎn)生了吊詭的結(jié)果,那就是,人撞死人反而是可理解的,而機器撞死人是不能接受的——因為“機器”是按照人類倫理規(guī)則事先設(shè)定程序的,程序不周或有所選擇,都可能被指責為有意的“惡”。
此次Uber無人車撞死行人的事故,雖然不牽涉復(fù)雜的情境,但仍然會引發(fā)和以往種種討論的共振,引發(fā)“人工智能將怎樣做出倫理選擇”的不安。美國警方公布的情況,潛在將問題指向了測試人員的開小差,顯示“坐在駕駛座上的測試安全員并沒有密切關(guān)注著道路狀況”、“當車輛撞上行人的一刻,安全員才突然發(fā)現(xiàn)狀況”,這是事實陳述,但也是將機器的問題重新歸為具體的人的問題。具體的人在法律和道德上承擔結(jié)果是容易的、能操作的,難的是人類發(fā)明的技術(shù)如何嵌入人類生活的倫理。
(責任編輯:臧夢雅)