來源:中國經(jīng)濟網(wǎng) 發(fā)布時間:2024-3-4 11:5
中國經(jīng)濟網(wǎng)北京2月29日訊(記者王婉瑩) 今日,奇安信集團對外發(fā)布《2024人工智能安全報告》(以下簡稱《報告》)!秷蟾妗凤@示,2023年AI深度偽造欺詐激增30倍,但目前業(yè)界對AI潛在風(fēng)險的研究與重視程度仍遠遠不足,在積極擁抱大模型等人工智能技術(shù)之時,各界對其安全風(fēng)險應(yīng)保持警醒。
大模型引爆AI熱潮,雙刃劍效應(yīng)顯現(xiàn)
2022年以后,以ChatGPT為代表的大語言模型(Large Language Model,LLM)AI技術(shù)快速崛起,后續(xù)的進展可謂一日千里,迎來了AI技術(shù)應(yīng)用的大爆發(fā),展現(xiàn)出來的能力和效果震驚世界。
IDC調(diào)研顯示,67%的中國企業(yè)已經(jīng)開始探索 AIGC 在企業(yè)內(nèi)的應(yīng)用機會或進行相關(guān)資金投入。IDC預(yù)測,2026年中國AI大模型市場規(guī)模將達到211億美元,人工智能將進入大規(guī)模落地應(yīng)用關(guān)鍵期。
《報告》認為,“AI是一種通用技術(shù),通用就意味著既可以用來做好事,也可以被用來干壞事!
根據(jù)《報告》,2023年基于AI的深度偽造欺詐暴增了3000%,基于AI的釣魚郵件增長了1000%。
業(yè)界對AI風(fēng)險重視不足
《報告》深入研究了基于AI的深度偽造(Deepfake)、黑產(chǎn)大語言模型基礎(chǔ)設(shè)施、惡意軟件、釣魚郵件、虛假內(nèi)容和活動生成、硬件傳感器安全等12種重要威脅,對其技術(shù)原理、危害情況、真實案例等進行了深入的剖析,旨在讓業(yè)界更全面的認識到AI普及帶來的兩大主要挑戰(zhàn):一方面放大了現(xiàn)有威脅,比如釣魚郵件、惡意軟件等;另一方面是引入了新型威脅,如AI深度偽造等。
《報告》認為,AI與大語言模型本身伴隨著安全風(fēng)險,業(yè)內(nèi)對潛在影響的研究與重視程度仍遠遠不足。全球知名應(yīng)用安全組織OWASP發(fā)布大模型應(yīng)用的十大安全風(fēng)險,包括提示注入、數(shù)據(jù)泄漏、沙箱不足和未經(jīng)授權(quán)的代碼執(zhí)行等,亟需業(yè)內(nèi)的高度重視和積極應(yīng)對。
AI威脅該如何應(yīng)對?推動安全范式變革
《報告》從安全行業(yè)、監(jiān)管機構(gòu)、政企機構(gòu)、網(wǎng)絡(luò)用戶等群體角度,給出了應(yīng)對AI威脅的建議。其中安全行業(yè)需要繼續(xù)發(fā)揮能力優(yōu)勢,確保人工智能本身的安全性,并積極利用人工智能用于安全防護;監(jiān)管機構(gòu)需要對AI潛在風(fēng)險與影響保持持續(xù)關(guān)注,在制度和法規(guī)上及時提供支持;政企機構(gòu)需及時部署AI安全框架和解決方案,以及AI安全評估服務(wù)和檢測工具,還要依托AI推動安全升級;網(wǎng)絡(luò)用戶在嘗試最新人工智能應(yīng)用的同時,同樣需要更新安全知識,形成良好的安全習(xí)慣。
奇安信AI安全專家認為,一個影響深遠的新技術(shù)出現(xiàn),人們一般傾向于在短期高估它的作用,而又長期低估其影響。專家提醒,無論監(jiān)管機構(gòu)、安全行業(yè),還是政企機構(gòu),都需要積極擁抱潛力巨大的AI技術(shù)與大模型,同時審慎評估其影響的不確定性,確保監(jiān)管與治理及時跟進,不能“先上車再補票”。