全國政協委員龍婉麗:建議製定教育場景生成式AI使用負面清單和推薦清單

#建議把未成年人數據不出域當作底線#【全國政協委員龍婉麗:建議製定教育場景生成式AI使用負面清單和推薦清單】今年全國兩會期間,全國政協委員,民盟上海市委副主委、上海市靜安區副區長龍婉麗建議,製定教育場景生成式AI使用負面清單和推薦清單,強調杜絕「代勞式」使用,並按學段、學科、任務類型細化。她還建議,要把學術誠信教育前置到義務教育階段,把「引用規範、事實核驗、來源標註、AI輸出可疑點識別」納入課堂常規訓練。#澎湃直擊2026全國兩會##開局之年奮進中國#

在龍婉麗看來,人工智能尤其是生成式大模型會給教育帶來一系列新的挑戰。一是未成年人數據與隱私保護存在風險。教育處理大量未成年人信息,且往往涉及敏感信息,如學習軌跡、行為數據、心理與健康相關線索、家庭情況等,一旦隨手調用公網大模型把學生作品、作業、對話記錄上傳到第三方平台,就可能形成數據出域與再利用風險。二是生成式AI「代勞化」趨勢日漸明顯。不少一線教師與家長表示孩子越來越會「出答案」,卻越來越不願「走過程」。一旦「能力外包」成為習慣,學生會在不自知中失去耐性、推理力與判斷力,甚至影響到學習品質與學術誠信。三是模型輸出的不確定性,可能導致教育的不穩定性。生成式AI構建學生畫像時,易因數據片面、算法偏見產生價值偏差和錯誤引導。四是缺少教育可用的可信基礎設施與治理閉環。學校既難統一數據安全與合規要求,也難形成可複用的教學範式與評價機制,更難壓實平台與供應商責任。

對此,她有針對性地提出了四點建議。一是把「未成年人數據不出域」作為AI+教育工程底線。建設省市級(或地市級)教育人工智能公共底座,提供面向教育行業的統一入口、統一身份認證、統一訪問策略、統一日誌審計與留痕等,以及可控可審計的模型與算力服務。在制度上明確,教育數據能不出域就不出域;確需出域的,必須有合規評估、脫敏與授權機制,並可追溯、可問責。

二是把「學習過程還給學生」作為AI+教育的育人主導。製定教育場景生成式AI使用負面清單和推薦清單,強調杜絕「代勞式」使用,並按學段、學科、任務類型細化。把學術誠信教育前置到義務教育階段,把「引用規範、事實核驗、來源標註、AI輸出可疑點識別」納入課堂常規訓練。對未成年人過度依賴、沉迷AI風險設置防火牆,設計分級使用權限,引入使用時長與任務類型限制。

三是把「育人閉環」作為AI+教育的治理柱蠆式。加強AI+教育的人文底座建設,把AI素養從技能課升級為通識教育和價值教育。把人文學科中嵌入人工智能課程,教導學生進行事實核驗、觀點區分、偏見識別、價值討論,不僅教會「怎麼用」,更要教會「什麼時候不用、為什麼不用」。給每個學段一條人文底線能力目標,讓「人味」成為核心能力。如小學能分清「我自己想的/AI給的」,學會表達與傾聽;初中能做基本核驗與引用,能談「為什麼這樣做對/不對」;高中能做觀點論證與辨析,能運用「價值判斷+證據支持」解決真實問題。建立面向教師的可用、敢用、會用支持體系,可包含AI教學支持中心,配備專職教研員與倫理顧問,指導、帶領基層教師開展人工智能教育,實時響應課堂實踐中的技術適配與價值爭議,並提供合規培訓與風險案例學習。

四是把「信創適配 + 國產安全可控」作為AI+教育的技術防線。把信創適配前置為立項門檻,關鍵組件接口標準化,確保數據與日誌可遷移、可驗證銷毀,避免被單一廠商鎖定。在產品端明確供應商對數據合規、內容安全、漏洞處置、版本變更可回滾與應急響應的硬責任;在學校端建立數據、權限、調用三本台賬,流程寫清「誰審批、誰複核、誰負責」在個人端涉及敏感數據、對外發佈、評價結論必須人工複核與簽名留痕。