想象一下,未來(lái)某個(gè)人能夠通過(guò)人工智能軟件存在的漏洞,輕松地將無(wú)人機(jī)改造成具攻擊性的半自動(dòng)戰(zhàn)機(jī);一群黑客通過(guò)滲透醫(yī)院的智能醫(yī)療設(shè)備,敲詐勒索當(dāng)?shù)卣?hellip;…隨著人工智能技術(shù)的快速發(fā)展,這個(gè)未來(lái)可能并不遙遠(yuǎn)。顯然,如果不能防止人工智能技術(shù)的惡意使用,社會(huì)穩(wěn)定將遭受威脅。
過(guò)去一年,我們和其他20多位人工智能領(lǐng)域?qū)<?,通過(guò)思考當(dāng)前的人工智能技術(shù)以及其可能如何被壞人利用,寫(xiě)成了一份報(bào)告——《人工智能的惡意使用:預(yù)測(cè)、防止與緩解》。
這份報(bào)告基于人工智能可能被惡意使用的實(shí)際場(chǎng)景,如利用機(jī)器人進(jìn)行非法活動(dòng),借助新一代的難以被監(jiān)測(cè)的惡意軟件,進(jìn)行復(fù)雜的黑客活動(dòng),以及把廣告行業(yè)的工具功能進(jìn)一步延展,針對(duì)個(gè)人精準(zhǔn)投放等。事實(shí)上,在我們召開(kāi)研討會(huì)到完成報(bào)告的這段時(shí)間,隨著技術(shù)的快速進(jìn)步,一些聽(tīng)起來(lái)像來(lái)自科幻小說(shuō)的假設(shè)場(chǎng)景,已經(jīng)成真。例如,報(bào)告有一節(jié)討論了如何使用新的人工智能技術(shù),創(chuàng)建合成視頻和音頻,炮制知名政客的“假新聞”。這說(shuō)明,即使了解人工智能技術(shù)并為其可能造成的特定威脅做好應(yīng)對(duì),杜絕這類惡意使用的難度依然不小。
這份報(bào)告為討論這些問(wèn)題邁出了第一步,認(rèn)為只有政府和研究人員都給予持續(xù)關(guān)注,才有可能識(shí)別、預(yù)防和減輕這些威脅。我們提出了四點(diǎn)建議。首先,政策制定者應(yīng)該與技術(shù)研究人員密切合作,了解相關(guān)技術(shù)和目前的風(fēng)險(xiǎn)。其次,人工智能研究人員應(yīng)當(dāng)認(rèn)真考慮技術(shù)這把雙刃劍,并承擔(dān)適當(dāng)責(zé)任。第三,需要進(jìn)行更多的研究,從面臨類似問(wèn)題的其他領(lǐng)域(如計(jì)算機(jī)安全)學(xué)習(xí)解決之道。第四,必須將更多的專家和利益相關(guān)者納入對(duì)話。
中國(guó)在這些方面有機(jī)會(huì)發(fā)揮主導(dǎo)作用。中國(guó)政府在去年7月印發(fā)的《新一代人工智能發(fā)展規(guī)劃》中,呼吁“建成更加完善的人工智能法律法規(guī)、倫理規(guī)范和政策體系”“加強(qiáng)對(duì)人工智能潛在危害與收益的評(píng)估”,以確保人工智能的健康發(fā)展。《規(guī)劃》還呼吁“深化在人工智能法律法規(guī)、國(guó)際規(guī)則等方面的國(guó)際合作,共同應(yīng)對(duì)全球性挑戰(zhàn)”。我們對(duì)此深表贊同。
擁有全球性的態(tài)度至關(guān)重要,這不僅可以有效應(yīng)對(duì)這些本質(zhì)上跨國(guó)界的問(wèn)題,還可以確保所采取的措施不會(huì)阻礙人工智能整體的持續(xù)性發(fā)展。在應(yīng)對(duì)惡意使用者時(shí),我們不能犧牲掉開(kāi)放創(chuàng)新的精神,而應(yīng)該采取“負(fù)責(zé)任的創(chuàng)新”態(tài)度。
人工智能可以在醫(yī)藥、交通、能源、教育等諸多領(lǐng)域,為中國(guó)和世界帶來(lái)巨大收益。挑戰(zhàn)與機(jī)遇并存。要享受人工智能的紅利,全球必須更有效地應(yīng)對(duì)挑戰(zhàn)。
?。ń芸?middot;克拉克 海倫·托納)
掃一掃微信二維碼
掃一掃微博二維碼