首 頁 要聞 要論 協商 統戰 黨派 委員講堂 理論 人事 社會 法治 視頻 文化

首頁>專題>第二時間

AI賦能社會

我們如何“賦善”AI?

2025年07月04日 08:02 | 來源:人民政協報 分享到: 

1

2

近日,一則題為《關于對張某某、李某某同志違反中央八項規定精神問題的通報》的“紅頭文件”在網絡瘋傳,“文件”稱某基層政府兩名干部因購買方便面而被通報批評。消息迅速引發網民熱議,直至當地政府緊急辟謠,才揭開這場鬧劇的真相——這竟是一則由AI炮制的虛假信息。

這起看似荒誕的謠言事件,折射出AI技術迅猛發展背后的濫用歪風。多位政協委員在接受記者采訪時表示,AI時代要“智”也需“治”,各方應同心同向、形成合力,進一步實現AI技術安全、可靠、可控,并最終實現“技術向善”的目標。

為何AI技術濫用的門檻如此之低?

AI“換臉”“換聲”詐騙、AI仿冒名人收割流量、“AI小姐姐”虛假引流……AI技術濫用的門檻為何如此之低?

“AI技術的易用性高是其快速普及的原因之一,但這同樣導致了AI技術的濫用門檻降低。”全國政協委員、金杜律師事務所高級合伙人張毅表示,從實踐看,當前AI詐騙高發領域包括“深度偽造”名人肖像、虛假新聞制造、仿冒語音詐騙、針對性廣告生成等。其中,圖像合成、語音仿真、大模型自動生成文本技術等最易被惡意利用。

“這些技術本身具有強大的內容生成和仿真能力,一旦缺乏有效監管和倫理約束等,極易滋生違法亂象。”張毅表示。

全國政協委員、360集團創始人周鴻祎表示,目前,許多AI模型(如大語言模型)已開源,促進了安全技術的透明化和協作防御能力的提升。“但也要看到,開源也在一定程度上降低了AI的技術門檻,使得不法分子更易獲取和濫用AI技術深度偽造內容、自動化生成虛假信息等。”

“隨著AI工具的‘傻瓜化’和平臺化,只要有基礎的網絡和計算機設備,幾乎人人都能輕易掌握和使用這些技術生成虛假內容。這種零門檻的趨勢,使技術濫用快速擴散、難以管控。”深圳市政協常委、深圳碼隆科技創始人兼CEO黃鼎隆補充說。

在張毅看來,遏制AI技術濫用風險,是一道“必答題”。治理AI技術濫用惡用,需要一場從技術到監管到公民素養的全面升級。

堅持源頭可控、全鏈條合規

如今,AI技術濫用的風險呈現多樣性與多變性,這使得其治理存在諸多挑戰。在委員們看來,實現“智治”與“善治”,要堅持源頭可控、全鏈條合規。

廣東省政協委員、世界數字科學院國際首席人工智能官杜蘭表示,強化源頭治理,需要明確平臺和企業的責任。在缺乏強制法規的情況下,可以通過技術標準和行業協議自我約束。加強AI生成合成技術和內容標識管理,確保每一份AI生成的內容都能被追溯和驗證。

“平臺不能只把技術當流量工具,而應該主動擔起‘把關人’角色,比如完善用戶身份驗證、加強內容審查流程、對敏感生成行為設置攔截機制等。”黃鼎隆認為,從源頭治理AI技術,關鍵是“責任嵌入”,在算法設計和模型訓練階段引入風險評估機制,設定內容生成邊界。他呼吁大型AI企業要起帶頭作用,推動形成“可用、可控、可信”的AI生態。

張毅進一步建議,平臺和企業要將合規要求嵌入產品研發、上線、運營的全生命周期,建立算法備案、內容標識、數據溯源等機制。從制度設計上,強化“事前、事中、事后”全流程治理。在法規尚未完全配套的階段,行業可通過制定技術標準、簽署行業公約、建立第三方合規服務等方式實現自我約束。

周鴻祎認為,相關部門應及時出臺配套政策措施,鼓勵具備“安全﹢AI”完整解決方案的鏈主企業,針對人工智能應用所涉及的基座模型、知識庫、智能體等安全問題,基于安全大模型技術開展研發工作,加速推動技術成果轉化,將安全要素深度嵌入人工智能應用全流程。

“對AI技術的快速變化,配套措施應注重靈活性和前瞻性,建立動態調整機制,確保法律能夠及時響應新技術帶來的挑戰。”杜蘭建議。

“治理要講究策略,可考慮優先聚焦于算法治理、(敏感)個人信息保護、內容合規標識等關鍵領域。”張毅表示,應構建人工智能算法治理體系,加速完善算法公開透明,并針對產業鏈上各主體,采取權責相統一原則,根據不同主體對于人工智能系統的控制力度來加諸相應的合規義務。個人信息方面,應完善敏感個人信息分類、授權、處理和救濟機制,強化數據流通合規,明確權屬與責任劃分,保障公民權益不受侵害。

“要通過構建適配AI特性的監管與技術體系,實現創新與安全的協同共進。”周鴻祎認為,在監管機制層面,應遵循“敏捷治理”原則,避免“一刀切”式的強監管抑制創新活力。“具體而言,可通過建立‘監管沙盒’機制,在醫療、金融等關鍵領域劃定特定場景,允許企業在可控范圍內進行創新試點,既給予創新試錯空間,又能及時發現潛在風險并調整策略。”

“AI發展必須有邊界,但這個邊界要有彈性、有前瞻性。”在黃鼎隆看來,AI治理機制要具備動態調整能力,定期評估、及時修訂。“只有做到既能保護底線,又能釋放活力,AI才能在規則中持續創新,在信任中加速前行。”

用AI技術監管AI應用

委員們認為,AI技術濫用是與技術進步伴生的問題,同樣可以將人工智能技術運用于人工智能監管,形成政府監管與市場自律協同的治理生態。

周鴻祎建議,在技術層面,采用“以模制模”的方式,如開發大模型內容安全護欄系統等,打造全流程、多種類、多模態、場景化的內容安全體系。“還可從技術層面整合多領域精品知識庫,實現全網與私域知識的無縫對接,提升信息獲取效率。同時,可以通過精確的知識整合,幫助大模型緩解幻覺問題,減少虛假或不準確信息,提升大模型的可信度與可靠性。”

“當前,主流檢測手段包括數字水印、內容溯源、深度偽造檢測等技術,準確率隨著技術進步不斷提升,但仍面臨模型變異、跨平臺兼容等挑戰。”張毅對此建議,持續推動技術創新,完善檢測工具,加強國際技術合作,提升整體防控能力。

“AI技術被濫用來制造虛假信息,背后反映的是公眾對信息真實性的焦慮。應從技術層面加強監管,同時從社會層面提升公眾的媒介素養,讓每個人都能成為信息的‘守護者’。”杜蘭說。

張毅表示,網民應更多關注權威媒體信息,警惕那些過于離奇、煽動性強的音視頻內容,謹慎轉發未經證實的信息,遇到疑似AI合成內容時可通過“反向搜索”等方式輔助識別。此外,國家互聯網信息辦公室、工業和信息化部等相關部門應合力推動AI標識技術落地,幫助公眾更便捷地識別AI生成內容。

在委員們看來,整治AI技術濫用,并不是反對AI技術應用,而是做到鼓勵創新與防范風險的平衡。

張毅認為,除了加強技術監管,還應完善立法。目前,隨著《互聯網信息服務深度合成管理規定》《生成式人工智能服務管理暫行辦法》《人工智能生成合成內容標識辦法》等制度的陸續完善,整治AI技術濫用的法治基礎更加堅實。但這還不夠,應加快人工智能法立法進程,堅持以人民為中心,以保障人的主體地位、保護人的權益為底線,確定“包容審慎”的監管原則。既要防止“一刀切”抑制創新,也防范監管真空帶來的系統性風險。可以根據AI技術應用風險和場景,實施分級分類的監管,低風險領域簡化監管,高風險領域強化合規和審查;針對人工智能動態發展特性,設置“領域接口條款”,為技術迭代和產業創新預留調整空間。

據了解,AI技術濫用已經得到相關部門的高度重視。今年4月,中央網信辦(國家互聯網信息辦公室)啟動“清朗·整治AI技術濫用”專項行動。3個月來,聚焦AI換臉擬聲侵犯公眾權益、AI內容標識缺失誤導公眾等AI技術濫用亂象,已處置賬號3700余個。

張毅表示,當前AI治理既是全球性課題,也是數字中國建設的重要內容。“相信在國家政策引領、法律制度完善、技術創新驅動下,社會各界共同努力,一定能夠實現人工智能‘向善而行’,更好地服務人民、造福社會。”

(記者 周佳佳 李敏杰)

編輯:實習生 李軍(輔導老師:李敏杰)

久草日韩精品暖暖的在线视频,精品国产综合色在线,极品少妇粉嫩小泬精品视频,青青热久免费精品视频在线播放
日本欧美亚洲日韩在线视 | 中文字幕一区久久久久 | 一区二区三区四区视频在线 | 亚洲va久久久噜噜噜久久一 | 亚洲欧美精品专区精品 | 婷婷综合激情亚洲狠狠首页 |