人工智能聰明,但又令人難以置信的愚蠢
時間:2022-03-25 06:18:01 | 來源:行業(yè)動態(tài)
時間:2022-03-25 06:18:01 來源:行業(yè)動態(tài)
眾所周知,圖像識別模型極易受到愚弄。舉例來說,對于一張經(jīng)過精心設(shè)計(jì)的對抗性海報(bào),這類模型會將其中極為明顯的香蕉誤認(rèn)為為烤面包機(jī)。而在實(shí)踐場景下,這意味著自動駕駛汽車可能會誤讀標(biāo)志,或者面部識別系統(tǒng)無法正確判斷人臉信息。
這篇論文指出,醫(yī)學(xué)領(lǐng)域可能會受對抗性攻擊受到特殊影響,且這類惡意行為往往存在著顯著的動機(jī)包括經(jīng)濟(jì)刺激及技術(shù)漏洞等。
目前,大多數(shù)效能最出色的圖像分類器普遍利用ImageNet等開源模型構(gòu)建而成。這意味著攻擊者對于系統(tǒng)的工作原理可以具備良好的認(rèn)知,并更有可能以此為基礎(chǔ)成功攻擊其它AI模型。
當(dāng)人工智能技術(shù)被引入臨床環(huán)境之后,我們無法確定未來的醫(yī)學(xué)專業(yè)人員還需要掌握多少深厚的專業(yè)知識。但就目前來講,F(xiàn)inlayson與Beam表示此類對抗性攻擊主要屬于探索性研究。
并解釋稱,大家需要對數(shù)學(xué)及神經(jīng)網(wǎng)絡(luò)具備一定了解,才能正確構(gòu)建起對抗性示例。然而,整個流程可以輕松實(shí)現(xiàn)自動化,并通過應(yīng)用程序或網(wǎng)站進(jìn)行發(fā)布,以便非專家們隨時加以利用。
另外,研究團(tuán)隊(duì)希望這項(xiàng)研究能夠激勵從業(yè)者們更積極地研究相關(guān)議題,進(jìn)而發(fā)現(xiàn)一切可能的基礎(chǔ)設(shè)施防御措施,最終以更安全的方式利用圖像識別為病患以及醫(yī)護(hù)人員服務(wù)。