伊人大香焦网在线9_国产精品人妻99一区二区三区_美国一级做a一级视频_国产AV午夜精品一区二区入口

首頁(yè) / 資訊中心 / 交通百科/人工智能應(yīng)該被監(jiān)管嗎?

人工智能應(yīng)該被監(jiān)管嗎?

發(fā)布時(shí)間:2018-09-17 分類(lèi):交通百科

人工智能應(yīng)該受到監(jiān)管嗎?可否加以規(guī)管?如果是這樣,那么這些規(guī)定應(yīng)該是什么樣子的呢?

對(duì)于任何仍處于開(kāi)發(fā)階段的技術(shù)來(lái)說(shuō),這些都是難以回答的問(wèn)題-像食品、制藥、汽車(chē)和航空工業(yè)等行業(yè)的監(jiān)管,通常是在糟糕的事情發(fā)生后才實(shí)施的,而不是在預(yù)期技術(shù)變得危險(xiǎn)的情況下實(shí)施的。但人工智能發(fā)展得如此之快,人工智能技術(shù)的影響可能如此之大,以至于許多人不愿等待從錯(cuò)誤中吸取教訓(xùn),而是提前做好計(jì)劃,積極主動(dòng)地進(jìn)行監(jiān)管。

人工智能

在短期內(nèi),與自動(dòng)駕駛汽車(chē)、人工智能和算法決策以及驅(qū)動(dòng)社交媒體的“機(jī)器人”有關(guān)的問(wèn)題需要決策者的關(guān)注,就像許多新技術(shù)一樣。然而,從長(zhǎng)遠(yuǎn)來(lái)看,人工智能可能對(duì)人類(lèi)產(chǎn)生的影響涵蓋了對(duì)人類(lèi)的所有利益和風(fēng)險(xiǎn),從可能發(fā)展出一個(gè)更加荒誕的社會(huì),到人類(lèi)文明可能的滅絕。因此,對(duì)于未來(lái)的監(jiān)管者來(lái)說(shuō),這是一個(gè)特別具有挑戰(zhàn)性的局面。

在人工智能領(lǐng)域,許多人已經(jīng)在努力確保人工智能的發(fā)展是有益的,而不會(huì)對(duì)人工智能研究人員和開(kāi)發(fā)人員造成不必要的限制。如果不將期望原則付諸實(shí)施,光是這些原則是不夠的,還有一個(gè)問(wèn)題仍然存在:政府監(jiān)管和監(jiān)督是否必要,以確保人工智能科學(xué)家和公司遵循這些原則和其他類(lèi)似原則?

 對(duì)于AI的風(fēng)險(xiǎn)是什么,何時(shí)可能出現(xiàn),以及AI是否會(huì)造成存在的風(fēng)險(xiǎn),在人工智能研究人員之間存在分歧,但很少有研究人員認(rèn)為AI不構(gòu)成風(fēng)險(xiǎn)。即使在今天,我們也看到了狹隘的人工智能加劇歧視和失業(yè)問(wèn)題的跡象,如果我們不采取適當(dāng)?shù)念A(yù)防措施,我們可以預(yù)測(cè)問(wèn)題會(huì)惡化,隨著人工智能變得更加聰明和復(fù)雜,影響到更多的人。

許多人工智能研究人員簽署了Asilomar原則-以及關(guān)于發(fā)展有益的人工智能和反對(duì)致命自主武器的公開(kāi)信-表明研究人員之間有著強(qiáng)烈的共識(shí),即我們需要做更多的工作來(lái)理解和應(yīng)對(duì)人工智能的已知和潛在風(fēng)險(xiǎn)。

人工智能研究人員簽署的一些原則與聲明直接相關(guān),包括:

1、科學(xué)-政策聯(lián)系:人工智能研究人員與決策者之間應(yīng)進(jìn)行建設(shè)性的、健康的交流。

2、研究文化:應(yīng)該在人工智能的研究人員和開(kāi)發(fā)人員之間培養(yǎng)一種合作、信任和透明的文化。

3、矛盾回避:開(kāi)發(fā)ai人工智能系統(tǒng)的團(tuán)隊(duì)?wèi)?yīng)積極合作,避免在安全標(biāo)準(zhǔn)上出現(xiàn)拐角。

4、重要性:先進(jìn)的人工智能可代表地球生命歷史上的深刻變化,應(yīng)以相應(yīng)的關(guān)懷和資源加以規(guī)劃和管理。

5、風(fēng)險(xiǎn):人工智能系統(tǒng)構(gòu)成的風(fēng)險(xiǎn),特別是災(zāi)難性或存在性風(fēng)險(xiǎn),必須通過(guò)與其預(yù)期影響相稱(chēng)的規(guī)劃和緩解努力。

正確的政策和治理解決辦法有助于使人工智能的發(fā)展符合這些原則,并鼓勵(lì)就如何實(shí)現(xiàn)這一目標(biāo)進(jìn)行跨學(xué)科對(duì)話(huà)。最近成立的人工智能合作伙伴組織,包括領(lǐng)先的人工智能行業(yè)參與者,同樣支持有原則的人工智能發(fā)展理念-他們的創(chuàng)始文件指出,當(dāng)人工智能工具被用來(lái)補(bǔ)充或取代人類(lèi)的決策時(shí),我們必須確保它們是安全的、值得信賴(lài)的,并與受其行為影響的人的道德和偏好保持一致。其所建議的,第一步應(yīng)該是提高政府官員對(duì)人工智能影響的認(rèn)識(shí)。例如,自動(dòng)化車(chē)輛預(yù)計(jì)將導(dǎo)致數(shù)百萬(wàn)人失業(yè),這將影響到幾乎每一位參加會(huì)談的州長(zhǎng)(假設(shè)他們還在任),但這一話(huà)題很少出現(xiàn)在政治討論中。

人工智能研究人員對(duì)人工智能在改善我們的健康和福祉方面的巨大潛力感到興奮-這是正確的:這就是為什么他們中的大多數(shù)人首先加入了這一領(lǐng)域。但是對(duì)于AI可能的誤用和/或糟糕的設(shè)計(jì)也有合理的擔(dān)憂(yōu),特別是在我們走向高級(jí)和更通用的AI的時(shí)候。

因?yàn)檫@些問(wèn)題威脅著整個(gè)社會(huì),它們不能留給一小群研究人員去解決。至少,政府官員需要了解和理解人工智能如何影響他們的選民,以及更多的人工智能安全研究如何在這些問(wèn)題出現(xiàn)之前幫助我們解決這些問(wèn)題。

我們不應(yīng)該把重點(diǎn)放在監(jiān)管是好是壞,而應(yīng)該通過(guò)幫助我們的決策者了解人工智能進(jìn)展的現(xiàn)實(shí)和影響,為未來(lái)的建設(shè)性監(jiān)管奠定基礎(chǔ)。讓我們捫心自問(wèn):我們?nèi)绾尾拍艽_保人工智能對(duì)所有人都有好處?誰(shuí)需要參與這一努力?

绥芬河市| 伊春市| SHOW| 抚顺县| 玉林市| 莎车县| 松溪县| 上饶市| 永定县| 调兵山市| 龙岩市| 商河县| 惠水县| 武山县| 剑川县| 密山市| 甘肃省| 密山市| 阳东县| 色达县| 盘山县| 枣强县| 仁化县| 永清县| 安国市| 滁州市| 常宁市| 永宁县| 微山县| 安平县| 大宁县| 临高县| 小金县| 皮山县| 鄂伦春自治旗| 蒙山县| 晋江市| 黎城县| 临城县| 东山县| 上杭县|