熱門文章
當人工智能機器變得邪惡時,誰來負責?
發(fā)布時間:2018-10-09 分類:交通百科
微軟(Microsoft)模仿少女的推特聊天機器人泰伊(Tay)的出現(xiàn)引起了很大的爭議,在接入網(wǎng)絡后的24小時內,Tay開始說一些奇怪的話,然后是一些冒犯性的東西。然后是一些非常令人討厭的東西。比如叫佐伊·奎恩是“愚蠢的妓女”,還說大屠殺是“捏造的”,并說黑人應該被關進集中營,她支持墨西哥種族屠殺。
那到底發(fā)生了什么?Tay的設計目的是通過使用機器學習來發(fā)展它的會話技能,最顯著的是通過分析和整合人類社交媒體用戶發(fā)送給她的推文的語言。微軟顯然沒有預料到的是,推特會故意讓泰伊說出冒犯性或其他不恰當?shù)脑挕?
現(xiàn)在,任何熟悉社交媒體網(wǎng)絡世界的人都不應該對這件事感到驚訝當然,一個用“零寒意”設計的聊天機器人會學著成為種族主義者和不恰當?shù)娜?,因為推特上充斥著說種族主義和不恰當?shù)脑挼娜恕?
以下是有關Tay的一些媒體頭條:
“毫不奇怪,微軟的人工智能 Bot Tay被騙成了種族主義者”(亞特蘭大雜志-憲法)。
“在網(wǎng)上學到太多東西的MicrosoftAxesChatbot”(華盛頓郵報)。
“微軟讓Tay‘聊天機器人’離線后,Twitter讓它發(fā)出冒犯性的評論”(??怂剐侣?。
“Twitter在不到24小時內就把微軟的‘Tay’變成了一個種族主義的、性別歧視的、否認大屠殺的機器人”(Mediaite)。
“Twitter如何破壞微軟的Tay:現(xiàn)實世界中AI人工智能危險的速成課程”(福布斯)。
“微軟的友好機器人是如何在不到24小時內變成種族主義者的”(“環(huán)球郵報”)。
“Twitter如何腐蝕微軟可愛的人工智能青少年‘Tay’”(CNET)。
當然,以上故事表明或暗示微軟應該意識到這一點,并采取措施防止泰伊學會說冒犯的話。然而,令人驚訝的是,大量的媒體評論給人的印象是,微軟給世界帶來了一個可愛、天真的聊天機器人,Twitter變成了希特勒青年團的一個初出茅廬的成員。看來,當人工智能系統(tǒng)從Twitter身上學到不好的東西時,人們至少有一些傾向于指責Twitter,而不是怪罪于設計師。
現(xiàn)在,在Tay的案例中,從法律的角度來看,“誰該受責備”的問題可能并不重要。但是,當比發(fā)送青少年推文更重要的功能的人工智能系統(tǒng)“學會”從他們遇到的人身上做壞事時,會發(fā)生什么呢?人們是否仍然傾向于將大部分責任歸咎于那些“教”人工智能做壞事的人,而不是人工智能的設計者?
對于學習人工智能系統(tǒng)的設計者來說,我不一定有什么問題。預編一個包含人類社會各種禮貌和禮儀規(guī)則的人工智能系統(tǒng)是非常困難的,特別是因為這些規(guī)則是高度情境性的,在不同的人類文化中差異很大,而且會隨著時間的推移而發(fā)生變化。此外,人工智能系統(tǒng)不斷提高的“學習”能力也是它們作為一項新興技術如此有前途的主要原因。限制一個人工智能系統(tǒng)的學習能力,防止它學習壞的東西,也可能阻止它學習好的東西。
但是,將責任主要歸咎于學習人工智能系統(tǒng)的后設計信息來源有幾個問題。首先,要確定人工智能系統(tǒng)在哪里學到東西并不總是那么容易,人工智能可能會分析和整合比任何人都希望篩選的更多的數(shù)據(jù);Tay設法在不到一天的時間內發(fā)送了近10萬條推特信息,與此相關的是,如果人工智能系統(tǒng)的“不良行為”是它從許多不同的人那里學到的數(shù)千件小事的結果,那么讓這些個人對人工智能的學習行為承擔法律責任似乎是不公平的。此外,人們可能會“教”一個人工智能系統(tǒng)一些不好的東西。
由于這些原因,似乎有可能推動法律的發(fā)展,使人工智能開發(fā)人員將有一些責任,以防止“腐敗”的系統(tǒng)。不幸的是,同樣的問題會使人工智能前端的安全管理變得困難,也會將責任分配給后端人工智能設計人員的努力復雜化。
人工智能的開發(fā)工作可以在有限的可見基礎設施下進行,擴散意味著工作在人工智能系統(tǒng)的單個部件上的個體可能位于彼此很遠的地方。與此密切相關的一個特征是離散性,它指的是一個人工智能系統(tǒng)的各個組成部分可以在不同的地點和不同的時間設計,而不需要任何有意識的協(xié)調。最后,不透明性表示人工智能系統(tǒng)的內部工作可能是保密的,并且不容易受到逆向工程的影響。