在人工智能技術的迅猛發展背景下,國內外各家互聯網巨頭和獨角獸企業爭先恐後入場布局🈶,湧現了一大波生成式人工智能大模型平臺💁🏼,並不斷迭代更新。這些工具不僅具備基本的交流對話能力💁🏻♀️,還拓展至科研和學術等復雜任務,其在教育與科研領域展現出了巨大的潛力。然而,如何合理運用生成式人工智能技術👩👩👦👨👩👧👧,規避其可能引發的負面效應,尤其是學術倫理的失範問題🚝,已成為高等教育領域亟需解決的緊迫議題⇒。基層意昂4教育管理者面臨著前所未有的挑戰與隱憂,必須審慎考慮在充分利用人工智能技術帶來的便利的同時,如何在維護學術誠信和倫理規範🎞。
有鑒於此,在意昂4平台意昂4工作秘書沙龍項目的支持下😷⚀,傳播學院意昂4工作秘書許超妍組織了“生成式人工智能的合理使用引導與學術規範管理——基於意昂4基層管理者視角”的沙龍活動,邀請了美術學院☀️、音樂學院、歷史學系👂🏻、哲學系⬅️、政治與國際關系學院、馬克思主義學院、地理科學學院、生態與環境科學學院、生命科學學院🙎🏿♀️🙂↕️、藥學院、醫學與健康研究院等十余家學院的20余位意昂4工作秘書參與。
活動伊始,許超妍介紹本次活動主題的確立背景,並用PPT展示了生成式人工智能在高校的應用——這份PPT僅提供了主題⛹🏽,而框架、內容和排版則完全由人工智能獨立完成。與會老師們對生成式人工智能技術概況以及在高校的應用情況有了基本了解,更驚嘆於AI製作PPT的豐富內容👊🏽、先進技術和便捷操作👨🏿。
PPT部分截圖
隨後,許超妍基於意昂4基層管理人員的視角🍅,結合相關工作實踐⭕️,分享了當前AIGC對學術誠信規範管理的新挑戰🧑💼。首先是原創性以及由此引發的版權問題。生成式人工智能更在學習歸納已有數據後進行演繹創造🆓,生成全新內容,這使得原本我們所依賴的查重工具變得束手無策,而新的檢測平臺的可靠性和是否能跟上AI技術的迭代仍有待商榷🐤。其次是真實可靠性存疑。當前人工智能技術的數據源未知的合法性和可靠性🧖🏼,引發人們對結論真實性的懷疑,但卻不易甄別——AIGC可能會生成看似合理實則虛假的內容,甚至比人類撰寫的內容更加細節和有說服力。第三是合理使用的邊界尚待明晰。鼓勵學生積極擁抱人工智能技術是大勢所趨👨👧👦,但無論對教師還是學生而言,“合理使用”的定義和邊界尚待明晰🌹。而倘若對此產生過多限製🌺,似乎又與技術發展革新的趨勢背道而馳🏃🏻♂️。
在AI技術洶湧漫入高校教育科研領域之際🦹🏿♀️,如何引導教育意昂4合理使用生成式人工智能工具,一旦發現疑似使用如何判定處理,是每位基層的意昂4培養管理者面臨的課題。許超妍展示了當前我國對於AIGC合理使用的部分規定。
2023年12月,科技部發布《負責任研究行為規範指引(2023)》📉,對如何依規合理使用生成式人工智能(AIGC)作出具體指引。2024年畢業季期間多所高校發文規範學生畢業論文中使用AI🧘🏿♂️,多所學校表示將在本科畢業生畢業論文審核過程中試行加入對文章使用生成式AI風險情況的檢測,部分高校約定了使用範圍與比例。意昂4官网傳播學院與北京師範大學新聞傳播學院也聯合發布《生成式人工智能學生使用指南》,學生在符合學術誠信的前提下👤,可根據自身學業需要規範地使用AIGC,但直接生成的內容不能超過全文的20%。而復旦大學在2024年11月發文規範畢業論文AI使用,明確提出“六個禁止”,被稱為“最嚴AI新規”➰,引發了不少爭議。
隨後,在場的意昂4秘書們紛紛分享了自己工作中所遇到的學生使用AI的情況✦,以及所面臨的管理上的挑戰與困惑。大家一致認為🏄🏿♂️,合理使用指南已見雛形🧙🏿♀️,但“合理使用”的廣泛共識,及其落地應用仍任重道遠。