如何引導學習者運用人工智能催化知識生成,而非吞噬更深層次的思考,對教師來說是一項前所未有的挑戰。我們應該利用人工智能,來補足人類思維里面的不足,如此才能變得更加強大
今年春節后,隨著一款開源人工智能智能體執行框架在全球技術領域掀起熱潮,生成式人工智能工具不再是僅提供建議的“嘴替”,而是可以直接執行任務的“手替”。通過整合多渠道通信與大語言模型,用戶可本地化部署具備持久記憶、主動執行能力的人工智能助手,只需下達“指令”,它便能自主完成從代碼編寫到信息發布等一系列復雜操作。當前,生成式人工智能工具迅速席卷世界教育領域,一時間,這似乎成了教育擁抱人工智能前沿的象征。然而,對于教育教學而言,我們究竟需要什么樣的生成式人工智能工具?當能夠“伸手干活”的生成式人工智能工具被引入教學過程,它帶來的究竟是學習革命,還是以效率為名的思維、感知和價值剝奪?
認知的“黑箱”
當“執行”替代“思考”
教育心理學區分“知道那個”與“知道如何”,前者是事實性知識,后者是程序性能力。真正的教育從來不只是傳遞“那個”知識,更是培養“如何”思考、分析、創造的能力。而“如何”的獲得,必須經由親歷的認知掙扎,即思維能力的提升。
生成式人工智能工具的核心特征,恰恰是以極致的“執行”跳過了這一掙扎。以前人工智能助手的邊界在于“建議”,由你主導提問,決定采納或拒絕建議;而生成式人工智能工具的邊界在于“代辦”,你指揮它做什么,它直接做完。當生成式人工智能工具自主完成信息收集、數據分析、文本生成,學生面對的只是一個輸入指令和接收成果的界面,中間的認知過程被封裝在無法透視的黑箱之中。一名學生描述體驗時說:“第一次體驗到指揮別人干活的感覺,這種掌控感太爽了。”這句話暴露了問題的核心:學生在“指揮”中獲得的是掌控感的幻覺,而非完整思維的真實提升。他以為自己在“馴化”生成式人工智能工具,殊不知它們正在將他“馴化”為一個只會發號施令、卻不知任務如何完成的“空心指揮家”。更值得警惕的是,依賴生成式人工智能工具完成各項專業任務時,認知過程的“黑箱化”。支持者可能辯駁:讓人工智能承擔煩瑣工作,學生才能集中精力于更高層次思考。但認知科學表明,所謂“低級”與“高級”思維并非截然分離:寫作中的遣詞造句,本身就是思想逐漸明晰的過程;編程中的代碼調試,本身就是問題解決能力的錘煉。當這些過程完全被人工智能取代,“高級思考”將失去賴以生長的土壤。
蘇聯心理學家維果茨基的最近發展區理論指出,學生的發展有兩個層次:一是“現有發展水平”,即獨立完成任務時的能力上限;二是“潛在發展水平”,即在他人指導、幫助下能達到的能力上限,兩者之間的區域就是“最近發展區”。
如何引導學習者運用生成式人工智能工具催化知識生成,而非吞噬更深層次的思考,對教師來說是一項前所未有的挑戰。我們應該利用人工智能,來補足我們人類思維里面的不足,如此才能變得更加強大。學生應當成為審核者,具備批判性思維去評估人工智能的決策邏輯是否合理、是否存在偏見。
感知力的鈍化
當體驗淪為符號
如果說“認知黑箱”的風險主要體現在思維層面,那么生成式人工智能工具對感知力的侵蝕則觸及教育的更深層維度,即人與真實世界的關系。
生成式人工智能工具的危險在于,它以效率為名,將學生與真實世界的直接接觸替換為中介化的符號操作。學生不需要走進菜市場,不需要觀察父母忙碌的身影,不需要感受除夕夜的煙火氣息,他們只需向人工智能下達指令,就能收獲一篇關于“年味”的文本。這是一種感知力的技術性剝奪。當學生習慣于用人工智能生成的文本替代自己的觀察和體驗,他們喪失的不僅是寫作能力,更是感受生活、理解他人、與世界建立情感聯結的能力。
生成式人工智能工具背后隱藏著一種可通約性的假設,即所有經驗都可還原為數據,所有表達都可被算法優化,所有個體獨特性最終可被平均為“最大公約數”。教育之所以重要,恰恰在于它面對的是不可通約的個體。每個學生的生活經驗、情感體驗、認知方式都是獨特的,教育的使命不是將這些獨特性打磨成標準產品,而是幫助每個學生為自己的經驗找到恰切的表達。教師要引導學生理解人工智能的工作方式與人的工作方式有什么樣的區別,發展人能夠區別于人工智能的那部分能力,才能讓學生有更高的創造力和情商。
安全的漏洞
人工智能的價值滲透
除了認知和感知層面的隱憂,生成式人工智能工具還帶來更直接的安全挑戰。如在架構設計、默認配置、插件生態、行為管控等方面存在較大安全風險,一旦被攻擊者利用,可能導致服務器被控制、敏感數據被泄露。當教育過程引入這種既不可控又不可逆的工具,誰來為潛在風險負責?有學生為調試生成式人工智能工具將電腦權限全部開放,導致文件泄露;有學生陷入“技術狂歡”卻荒廢專業課。面對各種安全隱患,建議強化網絡控制、加強憑證管理、嚴格管理插件來源、持續關注補丁和安全更新。面對學生的“學業荒廢”,建議有關部門出臺規定,謹慎使用生成式人工智能,謹防解除了“近憂”,卻增添了“遠憂”。
更深層的風險在于價值觀層面。人工智能不是中立的,其輸出建立在其訓練數據蘊含的價值預設之上。當生成式人工智能工具被用于分析問題、形成判斷時,它正在以一種隱性方式塑造學生的思維方式和價值取向。如人工智能生成的作文往往傾向于“情感正確、結構標準”的表達,這種“正確”背后是算法對“什么是一篇好作文”的預設,它可能來自特定文化語境的寫作規范,也可能來自訓練數據中的主流表達,卻不是來自學生自己的生活世界和價值判斷。
工具理性追求效率、標準化和可控性,而教育的目的從來不只是提高效率、完成任務,而是培養會思考、會感受、會選擇、會創造的人。
回歸對話
人工智能時代的教育抉擇
教育教學必須慎用生成式人工智能工具。因為,教育的核心不是執行,而是成長;不是效率,而是過程;不是成果,而是體驗。一個全能的人工智能,恰恰可能掐斷學生成長必需的認知掙扎、過程體驗和試錯學習。
教育需要什么樣的生成式人工智能工具?需要能夠激發思考的對話者,而非包辦任務的執行者;能夠引導學生追問的“蘇格拉底”,而非代替學生勞作的工具。生成式人工智能工具應是搭建階梯式、個性化的支架,以啟發為核心引導學生自主跨越最近發展區。這種支架不是“包辦代替”,而是“適度托舉”。
人工智能時代正在加速淘汰不會使用人工智能的人,這讓部分教師產生了要讓學生盡快學會使用人工智能的焦慮感。當教師將“學會使用人工智能”作為目標時,應該思考,我們希望學生成為什么樣的人?是熟練的“人工智能指揮家”,擅長發號施令、獲取成果,還是“獨立思考者”,能夠提出真問題、保持批判意識、堅守價值判斷?答案不言自明。“獨立思考者”的素養包括批判性思維、真實感知力、價值判斷力等,這恰恰是無法被算法化、無法被工具替代的東西,是教育必須守護的核心。
需要強調的是,“慎用”并非“禁用”。在高等教育前沿探索、專業領域工具性應用、有引導的實驗性教學中,生成式人工智能工具具有重要價值,關鍵在于區分“什么時候用”和“什么時候不能用”,它們更適合在已有扎實認知基礎、明確學習目標、清晰倫理邊界的專業訓練中使用,不適合在中小學階段、人文素養培育、基礎能力訓練中使用;適合于研究對象、實驗工具、效率輔助,不適合思維替代、感知屏蔽、價值塑造者。
技術要服務于人,效率要服從意義,數據要始終用于豐富人性。應將人工智能置于工具層,作為手段支持;將師生情感共鳴、同伴協作等真實人際聯結置于交互層,作為關系紐帶;將批判性思維、創造力、同理心置于價值層,作為終極目的。工具不能替代交互,效率不能吞噬意義。
新的生成式人工智能工具,以其強大的執行能力引發廣泛關注。但在教育這片土地上,恰恰有一些東西是任何“執行”都無法替代的,比如,學生在困惑中逐漸清晰的思考,在觀察中慢慢積累的感知,在試錯中反復錘煉的判斷,在表達中不斷深化的自我理解,等等。這些東西無法被外包,無法被代勞,無法被算法優化。它們只能由每一個學生在實踐中完成,在真實的認知掙扎中、在與世界的直接接觸中、在教師的陪伴引導下完成。
教育的使命,從來不是讓學生更高效地完成任務,而是讓學生在完成任務的過程中成為更完整的人。當越來越便捷生成式的人工智能面世,教育需要守住那些無法被“執行”的部分。這不僅是技術使用的邊界,更是教育之為教育的底線。
(作者單位:華東師范大學,范國睿系該校教育學部教授、教育部教育大數據與教育決策實驗室研究員)
編輯手記
以我為主迎接人工智能
當有中小學生,利用生成式人工智能得到了堪當研究生水平的答案,老師如何面對?一位資深出版人為此深感憂慮。教師是要“感謝”人工智能代替了人類知識傳授功能,解放了師生的時間,以用于更富有創造性的勞動嗎?
從哲學層面理解的“知識就是力量”,迄今仍舊是真理。試想,中小學生還沒有完全建立起對世界、對社會、對人生的知識結構和價值體系,沒有掌握知識生成的規律,沒有領悟自我建構知識世界的樂趣,沒有形成合理的思維方式和行為方式,進而形成健康向上的生活方式,如何利用被人工智能“解放”出的大把時間去創造?恐怕,還是要借助人工智能。久而久之,他會形成對人工智能的過度依賴,被人工智能以“知識”為名“綁架”,離開人工智能“無以言”。
這篇文章啟發我們,中小學教師要在人工智能迅速發展之際,利用自己的教育智慧,讓學生葆有對知識的“初感”、對真實的物理世界的“初感”,做認知的“真正的主人”,擁有讓人工智能服務于人類的底氣和智慧,以應對那個因人工智能迅猛發展而充滿不確定性和未知的未來世界。這正是教育能夠帶給世界的光亮。
《中國教育報》2026年04月16日 第07版
工信部備案號:京ICP備05071141號
互聯網新聞信息服務許可證 10120170024
中國教育報刊社主辦 中國教育新聞網版權所有,未經書面授權禁止下載使用
Copyright@2000-2022 www.lmhko.cn All Rights Reserved.