每日經濟新聞 2024-08-06 18:36:33
每經編輯 黃勝 每經實習編輯 宋欣悅
8月4日,據外媒報道,OpenAI已掌握一項技術,能夠精準識別出論文或研究報告是否由ChatGPT撰寫,甚至能追溯其使用的具體時間點。盡管社會各界對學生可能借助人工智能工具進行學術不端行為的憂慮日益加劇,但截至目前,OpenAI尚未公開披露這一檢測手段的具體信息。
據知情人士披露和《華爾街日報》看到的內部文件內容,該項目在OpenAI內部陷入了長達兩年的激烈爭論,而且早在一年之前就已做好了發布準備。其中一位知情人士表示,“發布這項技術只是按一個按鈕的問題。”
圖片來源:視覺中國-VCG31N2008743681
然而,在實際決策過程中,OpenAI的員工陷入了兩難境地,他們既想要堅守公司最初承諾的透明度原則,又希望平衡吸引和維持用戶群體的需求。一項針對忠實ChatGPT用戶的調查顯示,有近三分之一的用戶表示,一旦反作弊技術推出,他們可能會選擇停止使用ChatGPT。
有網友表示,這種防止作弊的技術不過是一場“貓鼠游戲”,非但不能從根本上解決問題,反而可能催生更為復雜的作弊手段。并且,目前市面上已經有很多與GPT-4o相媲美的產品,“作弊者”同樣可以轉向使用其它大模型。
還有網友表達了對防作弊技術可能帶來的副作用的擔憂,認為其嵌入可能會削弱ChatGPT的整體響應質量和用戶體驗。
OpenAI一位發言人表示,公司擔心該工具可能會對非英語母語人士等群體產生格外重大的影響。她解釋道,“我們正在開發的文本水印方法在技術層面極具前景,但也存在著重大風險,目前我們正在研究替代方案并權衡這些風險。在我們看來,考慮到問題的復雜性以及對OpenAI之外更廣泛生態系統的潛在沖擊,我們有必要采取更為審慎的處理方法。”
支持該工具發布的員工,包括那些幫助開發該工具的員工都曾在內部表示,與這項技術所能帶來的好處相比,上述觀點顯得蒼白無力。
OpenAI首席執行官薩姆·阿爾特曼(Sam Altman)和首席技術官米拉·穆拉蒂(Mira Murati)也參與了有關反作弊工具的討論。一些知情人士表示,阿爾特曼對該項目表示肯定,但并未實際推動其發布。
ChatGPT由一套人工智能系統提供支持,該系統可以預測句子中接下來應該出現的單詞或單詞片段。OpenAI正在討論的這款反作弊工具會略微改變token選取方式,通過這種變化來創建一種文本水印。
這些水印肉眼是無法察覺的,但可以通過OpenAI的檢測技術識別出來。檢測器會給出一個分數,用以衡量整個文檔或者部分文檔內容由ChatGPT生成的可能性。
根據內部文件,在ChatGPT創建了足夠多的新文本之后,水印機制的準確性高達99.9%。
斯坦福大學研究員約翰·西克斯頓(John Thickstun)所在的團隊,也在開發類似的AI文本水印方法,他表示:“明天太陽原地爆炸的概率,都比學生們不用AI寫文章的幾率大。”
但也有一位知情的OpenAI員工表示,他們擔心這些水印可以通過簡單的技術清除,比如由谷歌將文本翻譯成另一種語言,之后再翻譯回來;或者讓ChatGPT在文本中添加表情符號,再將其手動刪除。
公司內部普遍認為,這款檢測器究竟該交給誰使用也是個大問題。如果使用的人太少,那它就缺乏現實意義;而如果廣泛對外開放訪問權限,惡意人士可能會破解其中采用的水印技術。
OpenAI員工還討論過將檢測器直接提供給教育工作者或者外部企業,以幫助學校識別由AI撰寫的論文和抄襲作品。
谷歌也曾開發過一款水印工具,可以檢測由其Gemini AI生成的文本。這款工具名為SynthID,目前處于內測階段,尚未全面向公眾開放。
OpenAI還有一款工具,可以用來確定圖像內容是否由DALL-3(OpenAI旗下的文生圖模型)生成,而且該工具已在今年春季開放了測試。知情員工表示,OpenAI其實優先考慮的是音頻和視覺水印,而非文本水印。畢竟考慮到美國已經迎來又一個選舉年,前者的危害明顯更大。
生成式AI可以根據一個提示,在幾秒鐘內免費創建整篇論文或研究論文。教師和教授們紛紛表示,他們迫切需要官方幫助來打擊這種濫用AI技術的行為。
紐約市高中英語與新聞學教師亞歷克斯·古特曼(Alexa Gutterman)表示,“這已經成了大問題,跟我共事的每一位老師都在討論這種趨勢。”
民主與技術中心(一家關注技術政策非營利組織)最近的一項調查發現,59%的初中和高中教師明確發現有學生在使用AI幫助完成作業,這一比例較上學年增長了17個百分點。
2023年1月,OpenAI發布了一種算法,旨在檢測由包括其自家模型在內的多種AI模型編寫的文本,但成功率只有6%。七個月之后,OpenAI決定將其撤回。
還有其他由外部企業和研究人員開發的類似AI輸出文本檢測工具,不少教師表示他們已經試用過這些工具,但有時候不僅無法檢測到由先進大語言模型生成的文本、還經常會產生誤報。
也有部分教師鼓勵學生使用AI來幫助研究或者為當前思路提供反饋。但問題在于,如果學生純靠ChatGPT這樣的應用程序完成作業,那他們自己甚至都不知道學了些什么。
去年,猶他大學政治學教授喬什·麥克雷恩(Josh McCrain)給學生們布置了一項寫作作業,其中也摻雜了某些難以辨認的短文本片段,要求學生在作業中引用蝙蝠俠的內容。而如果他們把作業直接粘貼進AI對話框,這部分說明也會被納入其中。
果然,有少數學生在提交的作業中莫名其妙地引用了蝙蝠俠這一元素。為此,麥克雷恩正在不斷調整作業的內容,盡可能在作業中加上AI相對不熟悉的時事素材上,同時勸告學生們不要完全依賴AI來完成作業。“我一直反復向學生強調:這是你們自己的學習旅程,偷懶是不可取的。”
知情人士指出,關于水印工具的討論早在OpenAI于2022年11月推出ChatGPT之前就開始了,而且長期成為沖突和對立的根源。這款工具由計算機科學教授斯科特·阿倫森(Scott Aaronson)開發而成,他在得克薩斯大學兩年休假期間一直在OpenAI從事安全工作。
2023年初,OpenAI公司聯合創始人之一約翰·舒爾曼(John Schulman)在一份共享Google文檔中概述了該工具的優勢和缺點。OpenAI高管則決定在采取進一步行動之前,先征求更多人的意見。
在接下來的一年半時間里,OpenAI的管理層反復討論這項技術,并希望通過數據分析來決定到底要不要對外發布。
一份內部文件顯示,OpenAI于2023年4月委托開展的一項調查指出,有四分之一的用戶支持AI檢測工具的推出。
同月,OpenAI針對ChatGPT用戶開展了一項調查,結果顯示,高達69%的受訪者擔憂由于作弊檢測技術的誤判,使用AI的人可能會無端遭受“濫用AI”的指責。此外,近30%的受訪者強烈表示,如果ChatGPT決定實施水印機制,他們將選擇轉向那些不采用水印機制的競爭對手平臺,或者至少會減少對ChatGPT的使用頻率。
OpenAI公司內部還一直存在擔憂,即反作弊工具可能會損害ChatGPT的寫作質量。但知情人士表示,OpenAI今年早些時候進行了一項測試,發現水印并不會影響ChatGPT的性能。
根據內部文件,參與測試的員工總結道:“既然我們確認了水印不會降低輸出質量,恐怕就很難繼續反對文本水印機制的落地了。”
今年6月初,OpenAI的高層團隊與研究人員再次開會,就該項目進行了深入討論。小組內部達成了共識,認為水印技術確實展現出了良好的效果,但同時,去年ChatGPT用戶調查的結果依然具有重要的參考價值。據知情人士透露,有觀點提出,公司應該探索那些尚未得到驗證、但有望在用戶群體中引發較少爭議的新方法。
內部文件揭示,與會者普遍認為OpenAI應在今年秋季之前擬定一項策略,旨在引導公眾對AI透明度的正面認知,并考慮推動相關立法進程以支持這一方向。
6月會議紀要的核心指出:“若未能及時行動,我們的聲譽將會受損,公眾可能會因此質疑OpenAI的責任感。”
每日經濟新聞綜合自公開消息
如需轉載請與《每日經濟新聞》報社聯系。
未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望作品出現在本站,可聯系我們要求撤下您的作品。
歡迎關注每日經濟新聞APP