首頁>社情·民意>你言我語 你言我語

人工智能將拷問現(xiàn)有倫理規(guī)范 你會愛上機器人嗎

2017年07月10日 15:36 | 來源:人民日報
分享到: 

法律爭議

假設(shè)無人車傷了人,那么是開發(fā)者負(fù)責(zé)還是駕駛公司負(fù)責(zé)

關(guān)于人工智能帶來的“倫理困境”,讓很多專家感到糾結(jié)。盡管這樣的場景在目前還只存在于設(shè)想中:一輛載滿乘客的無人駕駛汽車正在行駛,遭遇一位孕婦橫穿馬路的突發(fā)狀況,如果緊急剎車可能會翻車傷及乘客,但不緊急剎車可能會撞到孕婦。這種情況下,無人車會怎么做?

如果司機是人,那個瞬間完全取決于人的清醒判斷,甚至是本能或直覺??僧?dāng)人工智能陷入人類“倫理困境”的極端情景時,其每一步都是通過算法設(shè)定好了的。

“無人車依靠的是人工智能大腦,它目前不可能做超出人類算法中所設(shè)定范圍的行為決策?!闭憬髮W(xué)計算機學(xué)院教授吳飛說,將全國每年的交通事故數(shù)據(jù)“喂”給計算機,人工智能可以學(xué)習(xí)海量數(shù)據(jù)里隱含的各種行為模式。簡單來說,就是無人車會從以往案例數(shù)據(jù)庫中選取一個與當(dāng)前情景較相似案例,然后根據(jù)所選取案例來實施本次決策。

但遇到完全陌生的情景,計算機會怎么辦?“無人車第一個選擇仍然是搜索,即在‘大腦’中迅速搜索和當(dāng)前場景相似度大于一定閾

值的過往場景,形成與之對應(yīng)的決斷。如果計算機搜索出來的場景相似度小于閾值,即找不到相似場景,則算法可約束無人車隨機選擇一種方式處理?!眳秋w說。

“程序員可通過代碼來約定無人車如何做,但這種約定始終要遵循普遍的社會倫理。這個過程中,程序員要和倫理學(xué)家一同參與把關(guān),程序員要將符合倫理的決策用代碼的形式體現(xiàn)出來,輸入到系統(tǒng)中?!眳秋w認(rèn)為。

編輯:梁霄

關(guān)鍵詞:人工智能 倫理 規(guī)范 機器人

更多

更多