熱門文章
如何防范ai人工智能的惡意使用?
發(fā)布時間:2018-09-10 分類:交通百科
我們?nèi)绾晤A(yù)測、預(yù)防和(必要時)減輕惡意使用ai人工智能的有害影響?
人工智能不僅改變了現(xiàn)有威脅的性質(zhì)和范圍,而且擴大了我們將面臨的威脅范圍。他們對人工智能的許多有益的應(yīng)用感到興奮,包括它將協(xié)助防御能力的方式。但是,蓄意惡意使用人工智能造成的安全威脅的情況也是很嚴(yán)重的。
我們的側(cè)重點在于人們利用人工智能進(jìn)行蓄意傷害的方式,人工智能可能在網(wǎng)絡(luò)、物理和政治安全方面構(gòu)成新的威脅,或改變現(xiàn)有威脅的性質(zhì)。我們需要認(rèn)識到這些風(fēng)險,并采取措施加以管理,因為技術(shù)正在以指數(shù)級的速度發(fā)展。
人工智能系統(tǒng)往往比傳統(tǒng)工具效率更高,可擴展性更好。此外,使用人工智能可以增加一個人對所采取行動的匿名性和心理距離,有可能降低犯罪和暴力行為的障礙。此外,人工智能系統(tǒng)有其自身獨特的漏洞,包括來自數(shù)據(jù)中毒的風(fēng)險,對抗性的例子,以及利用其設(shè)計中的缺陷。啟用人工智能的攻擊將超過傳統(tǒng)的網(wǎng)絡(luò)攻擊,因為它們通常會更有效,目標(biāo)更精確,更難以確定。
我們需要準(zhǔn)備的攻擊種類并不限于復(fù)雜的計算機黑客,主要存在三個安全領(lǐng)域:
1、數(shù)字安全:主要涉及網(wǎng)絡(luò)攻擊;
2、實體安全:指用無人機和其他物理系統(tǒng)進(jìn)行攻擊;
3、政治安全:包括監(jiān)視、通過有針對性的宣傳進(jìn)行說服以及通過操縱視頻進(jìn)行欺騙。這些域有很大的重疊,但該框架對于識別不同類型的攻擊、攻擊背后的原理以及可用于保護我們自己的各種選擇都很有用。
可以做些什么來為惡意使用人工智能跨這些領(lǐng)域做準(zhǔn)備?可能是研究人員和決策者探索未來和集思廣益的好方法,以管理最關(guān)鍵的威脅。例如,想象一個商業(yè)清潔機器人被改造成一個不可追蹤的爆炸裝置可能會嚇到我們,但它也說明了為什么像機器人注冊要求這樣的政策可能是一個有用的選擇。
每個領(lǐng)域也有自己可能的控制點和對策,例如,為了提高數(shù)字安全,公司可以提高消費者的意識,并鼓勵白帽黑客發(fā)現(xiàn)代碼中的漏洞。我們還可以向網(wǎng)絡(luò)安全界學(xué)習(xí),并采用一些措施,如人工智能開發(fā)中的紅色團隊、人工智能系統(tǒng)中的正式驗證,以及負(fù)責(zé)任地披露人工智能漏洞。為了改善實體安全,政策制定者可能希望監(jiān)管硬件開發(fā),并禁止銷售致命的自主武器。同時,媒體平臺可以通過提供圖像和視頻真實性認(rèn)證、假新聞檢測和加密來最大限度地減少對政治安全的威脅。
這里提出四項建議,目的不是提供具體的技術(shù)或政策建議,而是提前注意值得進(jìn)一步調(diào)查的領(lǐng)域。這些建議如下:
1、決策者應(yīng)與技術(shù)研究人員密切合作,調(diào)查、預(yù)防和減少人工智能的潛在惡意用途。
2、人工智能領(lǐng)域的研究人員和工程師應(yīng)認(rèn)真對待其工作的雙重用途性質(zhì),允許與濫用有關(guān)的考慮影響研究優(yōu)先事項和規(guī)范,并在可預(yù)見有害應(yīng)用時主動接觸相關(guān)行為者。
3、在研究領(lǐng)域找出最佳做法,采用更成熟的方法解決雙重用途問題,如計算機安全問題,并在適用于人工智能的情況下引入最佳做法。
4、積極尋求擴大參與討論這些挑戰(zhàn)的利益攸關(guān)方和領(lǐng)域?qū)<业姆秶?
最后是向網(wǎng)絡(luò)安全界學(xué)習(xí)并與之合作,因為隨著基于人工智能的系統(tǒng)變得更加廣泛和有能力,網(wǎng)絡(luò)安全事件的影響將不斷擴大。其他研究領(lǐng)域包括探索不同的開放模式,在人工智能研究人員中促進(jìn)責(zé)任文化,以及開發(fā)技術(shù)和政策解決方案。
惡意使用人工智能將影響我們?nèi)绾螛?gòu)建和管理我們的數(shù)字基礎(chǔ)設(shè)施,以及我們?nèi)绾卧O(shè)計和分發(fā)人工智能系統(tǒng),并可能需要政策和其他機構(gòu)的回應(yīng)。雖然這只是對人工智能將如何影響全球安全的必要理解的開始,但將推動討論向前推進(jìn)。