亚洲永久免费/亚洲大片在线观看/91综合网/国产精品长腿丝袜第一页

每日經濟新聞
要聞

每經網首頁 > 要聞 > 正文

OpenAI訓練數據從哪里來、與蘋果合作進展如何?“ChatGPT之母”最新回應

每日經濟新聞 2024-07-16 17:25:18

每經編輯 杜宇    每經實習編輯 宋欣悅    

7月9日,美國約翰·霍普金斯大學公布了對“ChatGPT之母”、OpenAI首席技術官米拉·穆拉蒂(Mira Murati)的采訪視頻。這場采訪時間是6月10日,訪談中,穆拉蒂不僅與主持人討論了OpenAI與Apple的合作伙伴關系,還深入探討了人工智能的潛在風險、數據隱私以及技術對社會的深遠影響

  • 核心要點

1.關于“ChatGPT-5”

下一代大模型將非常強大,我們可以期待像從GPT-3到GPT-4那樣的巨大飛躍。

2.關于AGI的預測

在未來十年內,我們將有超強的AI系統。

3.關于AI與教育

如果教育能夠根據你的思維方式、文化規范和具體興趣進行定制,這將極大地擴展知識和創造力的水平。AI非常強大,能夠推動人類知識的進步,從而推動整個文明的進步。

4.關于數據來源

我們主要有三個數據來源:公開數據、與出版商的合作數據以及我們支付人力標注的特定數據。

5.關于OpenAI與Apple的合作關系

OpenAI的目標是讓人工智能來覆蓋盡可能多的用戶。OpenAI將在接下來的幾個月里與Apple密切合作。

6.關于數據隱私

對于OpenAI的用戶和客戶,我們不會在未經允許的情況下使用他們的數據來訓練我們的模型。

圖片來源:截圖于Youtube

 

穆拉蒂表示,與Apple的合作是OpenAI的一個重要里程碑,目標是讓人工智能覆蓋更多用戶,通過在Apple設備上內置GPT技術,使用戶無需更換設備即可享受智能服務。她強調,接下來的幾個月里,OpenAI將與Apple密切合作,共同確定產品細節,并在適當時機與公眾分享更多信息。

在產品整合方面,穆拉蒂提到,希望將正在開發中的模型能力、多模態性和互動性引入Apple設備,這將是人工智能領域的一次重大突破。她認為,這種進步不僅限于模型能力的提升,還能讓信息傳遞和用戶互動變得更加豐富和自然。

談及用戶數據隱私時,穆拉蒂明確表示,OpenAI不會在未經用戶許可的情況下使用他們的數據來訓練模型,強調了隱私和信任在合作伙伴關系中的重要性。

關于Sora的發布時間,穆拉蒂表示目前沒有公開發布的時間表,OpenAI正在與內容創作者合作,以識別如何使技術更加穩定,并進行大量的安全工作。她認為,雖然Sora技術具有巨大的潛力,但其影響也很大,因此需要確保產品的適用性和安全性。

圖片來源:截圖于Youtube

 

穆拉蒂在訪談中也提到了AGI的預測,她認為AGI的定義會隨著技術的發展而不斷演變。她強調,評估人工智能的實際影響比單純評估技術進步更為重要。她還提到:“在未來十年內,我們將有超強的AI系統。

穆拉蒂談到了圍繞OpenAI涉嫌在其人工智能模型中盜用斯嘉麗·約翰遜(Scarlett Johansson)的聲音的爭議,以及研究人員因擔心該公司將產品開發置于安全考慮之上而高調離職的問題。她強調OpenAI對人工智能開發和部署的承諾,同時承認需要提高透明度。

面對員工對公司安全的擔憂,穆拉蒂回應稱OpenAI有許多安全團隊,并且公司非常重視安全問題。她提到,OpenAI從GPT-2時代就開始研究虛假信息問題,并一直非常開放地討論這些問題。

穆拉蒂承認,ChatGPT因過于自由而受到批評,但她強調這種偏見是無意的,“我們一直非常注重減少模型行為中的偏見,我們正在努力減少這些偏見,”不過,穆拉蒂尚未說明有關補救措施的具體細節。

對話還涉及了人工智能對教育的潛在影響,穆拉蒂表示:“如果教育能夠根據你的思維方式、文化規范和具體興趣進行定制,這將極大地擴展知識和創造力的水平。”穆拉蒂認為AI對教育的影響是巨大的,“能推動人類知識的進步,從而推動整個文明的進步”。

圖片來源:截圖于Youtube

 

  • 以下米拉·穆拉蒂與主持人對話以及觀眾問答環節的節選:

主持人:

首先,我很想問你關于與Apple合作的事。我們今天要談論一點這個話題。這個合作是在世界開發者大會上與OpenAI達成的。從今年某個時候開始,Apple的電腦、手機和iPad將內置GPT,這顯然是一個巨大的事件。

Apple是第一次做這樣的事情,他們與許多人進行了談判,可能會逐步包括其他人。我想從你的角度談談這個合作是如何運作的。我今天早些時候和蒂姆·庫克(Tim Cook)聊了一下他的觀點,現在我想聽聽你的看法。

米拉·穆拉蒂:

這是我們的一項重要里程碑。Apple是一家標志性的消費產品公司。我們的目標是讓人工智能來覆蓋盡可能多的用戶。這是一個將ChatGPT帶給所有Apple用戶的絕佳機會,無需更換設備。我們將在接下來的幾個月里與他們密切合作,弄清楚產品方面的具體細節,到時候會和大家分享更多的內容。

主持人:

如果你不介意的話,我們來聊一些更加具體的內容。你目前具體在做什么?Apple顯然需要改進Siri,因為它非常糟糕。從你的角度來看,你希望在與Apple的合作中實現什么目標?

米拉·穆拉蒂:

我可以具體談談產品整合的內容。我們希望帶來的是真正開發中的模型的能力、多模態性和互動性,并將這些引入Apple設備。

這是我們在人工智能領域的一次重大突破,特別是在模型與用戶之間的交互方式以及模型所展現出的多樣化功能上,實現了前所未有的飛躍。這種進步不僅僅局限于模型能力的提升。

這非常有意義,因為迄今為止,我們與設備的互動主要還是通過文本。而現在,這是一個極好的機會,能讓信息的傳遞和我們之間的互動變得更加豐富和自然,同時也極大地減少了互動過程中的限制

主持人:

當用戶向OpenAI發送請求時,這些請求信息不會被保存下來,同時用戶的IP地址也會被隱藏。這對于Apple用戶來說,無疑是一個重要的好消息。那么,這個過程是如何運作的呢?你們是否仍然可以使用這些請求的數據來訓練你的模型?

米拉·穆拉蒂:

不會的。對于我們的用戶和客戶,我們不會在未經允許的情況下使用他們的數據來訓練我們的模型

主持人:

那么,在與像Apple這樣重視品牌聲譽的企業合作時,他們最為看重并關心的問題有哪些呢?其中一項尤為關鍵的是,這些信息會被如何處理和利用,即關于數據流向及用途的擔憂。

米拉·穆拉蒂:

我認為這是一個非常一致的合作伙伴關系。隱私和信任是關鍵,OpenAI的使命是確保我們構建和部署的技術讓人們感到信任和有參與感。因此,這種合作關系是非常自然的,并且引領我們朝著期望的目標邁進。

關于虛假信息的問題,這顯然是非常復雜的。我認為這將是一個循序漸進的過程,我們需要不斷嘗試,隨著時間推移慢慢調整。

主持人:

我知道與Apple合作必須嚴謹無誤,因為一旦出錯,后果可能相當棘手。我很好奇這次合作是如何開始的?是山姆和庫克之間的一次對話促成的嗎?還是你也參與其中了呢?

米拉·穆拉蒂:

其實我不太記得是什么時候開始的,但已經醞釀了一段時間。

主持人:

你也在與其他公司進行類似的合作談判。OpenAI已經與新聞集團和Vox Media等公司達成了內容許可協議,這樣就減少了潛在的訴訟問題。要是我的話,我可能不會考慮這種合作。

那么,你打算怎么說服我,讓我同意你們使用我的信息呢?

米拉·穆拉蒂:

我知道你對此很關心,我可以告訴你我們如何看待數據訓練模型的問題。我們主要有三個數據來源:公開數據、與出版商的合作數據以及我們支付人力標注的特定數據。

此外,我們還有用戶自愿允許我們使用的數據。關于出版商合作,我們關心的是信息的準確性,用戶也非常重視這一點。

因此,我們與特定產品建立了一對一的合作關系,提供對用戶有價值的信息,同時也在探索不同的方式來補償內容創作者,讓他們的數據在產品中展示或用于訓練。

觀眾:

我是斯坦福大學計算機科學教授,也是斯坦福人類中心AI研究所的聯合創始人。我想問你一個關于數據的問題。很多人認為OpenAI的成功與數據密切相關。我們了解到你的公司從互聯網和其他來源獲得了大量數據。

那么你認為數據與模型之間的關系是什么?是否簡單地認為輸入的數據越多,模型就越強大?還是需要花費大量時間來整理不同類型的數據以使模型有效?最后,你如何解決對大量人類生成數據的需求與這些數據的所有權和權利問題?

米拉·穆拉蒂:

關于數據和模型之間的關系,這其實是很多人對AI模型,特別是大型語言模型的誤解。開發這些模型的人并不是預先編程它們做特定的事情,而是輸入大量數據。

理解這一點非常重要,因為它展示了大型語言模型的工作方式,結合神經網絡架構、大量數據和計算能力,產生了驚人的智能,并且隨著數據和計算能力的增加,這種能力會不斷提升。

當然,我們需要做大量工作來使這些數據可供模型使用。但這就是它的基本結構。我們正在考慮如何提供透明度以了解模型行為的工作原理。我們有一些工具可以讓人們對使用這些模型有信心,并讓他們有參與感。

主持人:

我覺得大家困惑的點在于,模型訓練過程中到底用了哪些內容,又排除了哪些。我記得在三月份,你接受了《華爾街日報》喬安妮·斯特恩(Joanne Stern)的采訪,她問你是否使用了YouTube、Instagram和Facebook的視頻來訓練Sora(OpenAI旗下一款文生視頻模型),你當時回答說不知道。那么,關于是否使用了這些數據,你真的不清楚嗎?

米拉·穆拉蒂:

我當時沒有很好地回答這個問題,現在我可以回答一下。我不能具體告訴你數據的來源,但數據來自這三類:公開數據、我們通過許可和與內容提供商達成的交易支付的數據,以及用戶數據。

我不能告訴你具體的來源,因為這是商業機密,幫助我們保持競爭力。但我可以告訴你數據的類別,它們是我之前提到的那幾種。

主持人:

唯一的區別是復雜性。因為他們基本上是在快速抓取內容,而沒有給出內容來源,任何媒體公司都會對此感到擔憂。

米拉·穆拉蒂:

是的,我們希望確保尊重內容創作者,并正在嘗試補償他們。我們正在開發一個工具,稱為內容媒體管理器,這將讓我們更具體地識別數據的類型,就像唱片公司所做的那樣。

主持人:

這在過去是可以做到的。所以這并不是不可能的事情。說到Sora,本周阿什頓·庫徹(Ashton Kutcher,好萊塢著名演員)告訴埃里克·施密特(Eric Schmidt,前谷歌CEO),他有一個測試版的Sora,非常驚人。

他還提到,這會讓門檻變得更高,因為人們可能會想:“我為什么要看你的電影,而不直接看我腦海里的電影呢?”他的意思是,人們有能力在腦海中構想電影情節,而AI能將這種構想轉化為可觀看的電影。雖然現在聽起來還有些粗糙,但這種想法是否有可能實現呢?

那么,Sora這款應用大概什么時候會準備好,向公眾發布呢?

米拉·穆拉蒂:

我們目前沒有Sora公開發布的時間表。我們現在正在與一些內容創作者合作,幫助我們識別如何使其更加穩定。我們正在進行大量的安全工作,但也在研究如何以有用的方式向公眾推出這項技術。這并不是一件簡單的事情。

現在它更多的是一種技術。我們通常會與那些在特定領域有專長的人合作,就像我們最初與DALL·E合作時一樣,他們幫助我們識別出一種感覺更有能力的界面,可以創造更多的項目。基本上來講,我們想擴展Sora的創造力。

主持人:

關于影響,科技公司往往不關心影響,通常他們會發布一個測試版的軟件。如果他們發布的是一輛車,這種情況是絕不會允許發生的,因為他們會被起訴到破產。

但很多科技公司發布的產品往往都是測試版,并強加給公眾。關于影響這一概念,你是否覺得作為首席技術官,即使你不能預見所有的影響,你是否尊重每項發明可能帶來的影響?

米拉·穆拉蒂:

這些影響會對我們和我們的社會產生影響。因此,我并不一定指的是監管或法律方面的影響,而是道德上的責任感,確保我們做對。我對這項技術充滿樂觀。

它將允許我們做出驚人的事情。我對它在科學、教育和特別是醫療方面的潛力感到非常興奮。但每當你有如此強大的東西,也會有潛在的災難性風險。一直以來,都是這樣的情況。人類試圖放大其影響。

主持人:

我引用的一句話來自保羅·維利里奧(Paul Virilio):“當你發明了船時,你也發明了船難。”這是比船難更嚴重的可能性,對嗎?

米拉·穆拉蒂:

我不同意這個說法。我的專業是工程學。我們的整個世界都是通過工程建造的。工程學就是風險。整個文明建立在工程實踐之上。我們的城市、橋梁,一切都如此。這總是伴隨著風險的。你通過責任和細致的工作來管理這些風險。

這不僅僅是開發人員的責任。這是一種共同的責任。為了使其成為共同責任,你實際上需要給人們提供訪問權限和工具,并與他們一起前進,而不是在真空中建造不可訪問的技術。

主持人:

我想多了解一下這個話題。你上個月宣布了ChatGPT-4的迭代更新。它是免費的,對吧?

米拉·穆拉蒂:

確實如此。GPT-4o代表的是Omni-model,因為它結合了所有的模態:視覺、文本、音頻。這個模型的特別之處在于,它使與模型的互動變得非常流暢自然,幾乎察覺不到延遲。

這是AI互動上的巨大飛躍,與我們之前的版本有很大不同。我們希望將最新的功能免費提供給所有用戶,讓大家了解這項技術的潛力和局限性。正如我之前所說,通過實際體驗,大家更容易理解技術的潛力和局限性。

主持人:

它就像是一道開胃菜,讓大家期待ChatGPT-5。那么,ChatGPT-5有什么不同?是個巨大的飛躍還是逐步改進?

米拉·穆拉蒂:

我們還不知道。其實我們還沒決定叫什么名字。下一代大模型將非常強大,我們可以期待像從GPT-3到GPT-4那樣的巨大飛躍,但具體細節還不確定。

主持人:

顯然,你參與了很多項目,我們也聊過很多。OpenAI內部的路線圖預測,人類會在2027年實現AGI,這將是一個巨大的里程碑。解釋一下這個時間點的重要性。你們是否真的認為會在那時實現AGI?

米拉·穆拉蒂:

AGI的定義因人而異。根據我們的章程,AGI是指在不同領域可以完成經濟上有價值工作的系統。從我們目前看到的情況來看,智能的定義不斷變化。過去,我們用學術基準測試系統的智能程度。然后,我們看考試成績。

當我們達到了這些基準,我們需要提出新的評估標準。這讓我們思考,在工作環境中如何評估智能?我們有面試、有實習等方式。因此,我預計這個定義會不斷演變。或許更重要的是評估和預測在現實世界中的影響,無論是社會影響還是經濟影響。

主持人:

根據這個定義,OpenAI認為何時會實現AGI?2027年這個數字準確嗎?

米拉·穆拉蒂:

我會說,在未來十年內,我們將有超強的AI系統

主持人:

但是人們擔心的是安全與產品之間的討論。OpenAI的創立有兩個目標,一個是幫助人類,一個是追求巨大的經濟利益。我認為你可能介于兩者之間。

上周,13名現任和前任OpenAI和谷歌DeepMind員工聯名發表公開信,呼吁公司允許他們警告關于先進AI的風險。這并不新鮮,Facebook、谷歌和微軟的員工也曾簽署公開信,無論是與高級部門合作等。

但在這個案例中,員工們說,“廣泛的保密協議阻止我們表達擔憂,而公司可能未能解決這些問題。”基本上就是說,我們不能告訴你風險是什么,但大家可能會遭遇災難。對此你有什么回應?人們擔心遭到報復,而我不想談論股票的問題,因為我知道你們道歉并糾正了這一點。但如果他們有擔憂,難道不應該讓他們表達嗎?我知道不同人有不同的看法。

米拉·穆拉蒂:

當然,我們認為持不同觀點非常重要,能夠公開表達這些擔憂并討論安全問題也非常重要。自OpenAI成立以來,我們一直非常開放地討論虛假信息問題,從GPT-2時代開始,這就是我們早期研究的問題之一。

過去幾年,技術進步令人難以置信,速度之快超乎預期,這也增加了人們對社會準備情況的普遍焦慮。我們看到科學的發展方向,所以可以理解人們對未來的擔憂。

具體來說,我們在OpenAI所做的工作和部署這些模型的方式,我認為我們有一支出色的團隊,我們非常安全地部署了這些模型,我對此感到非常自豪。鑒于技術進步的速度和我們自身的進展,專注于安全、保護框架非常重要,我們需要考慮如何看待前沿模型訓練和部署的風險。

主持人:

你提到過這些問題。我好奇的是,為什么OpenAI需要簽訂保密協議,以及實施比其他公司更嚴格的規定呢?公開信是在一系列高調離職后發布的,包括楊·萊克(Jan Leike)和伊爾亞·蘇茨克維(Ilya Sutskever)。他們領導了對齊團隊,負責安全工作。

伊爾亞是OpenAI的聯合創始人,他與其他三位董事一起罷免了CEO,但萊克在X上發布了這條消息:“在過去的一年里,安全文化和流程被光鮮的新產品所取代了。”

這是外界對OpenAI持續不斷的批評之一。你認為這個批評公正嗎?為什么?如果你確實非常重視安全,但外界卻認為你不夠重視,你會如何回應這樣的批評呢?

米拉·穆拉蒂:

首先,對齊團隊不是唯一負責安全的團隊。OpenAI有許多安全團隊,對齊團隊是其中一個非常重要的安全團隊,但只是其中之一。

我們有很多人在OpenAI從事安全工作,我可以稍后詳細解釋。萊克是一位了不起的研究人員和同事,我與他共事了三年,非常尊重他,他離開OpenAI后加入了Anthropic,這是我們的一個競爭對手。

我認為我們確實需要更加專注于安全、保護和監管參與,鑒于我們預期領域內的進展。但我不同意我們可能將產品放在安全之前的觀點。你為什么認為他們這么說?

主持人:

因為這些是和你共事的人?

米拉·穆拉蒂:

我認為你需要問他們,但我認為許多人認為安全和能力是分開的。我認為整個行業需要向更加嚴格的安全學科發展。我們有安全系統,有嚴格的操作安全紀律,這包括許多方面,不僅是操作紀律,還有我們今天產品和部署的安全性,例如有害偏見、虛假信息、錯誤信息分類器等。

主持人:

但這在OpenAI中一直存在。我認為因為你們是當前的領先公司,所以這個問題更加突出。但人們擔心的是安全問題,OpenAI的創立目的之一就是確保安全。

上周,有13名現任和前任OpenAI和谷歌DeepMind員工聯名發表公開信,呼吁公司允許他們警告關于先進AI的風險。這并不新鮮,但在這種情況下,員工們說,“廣泛的保密協議阻止我們表達擔憂,而公司可能未能解決這些問題。”

你對此有什么回應?人們擔心發聲會遭到報復,而我不想談論股票的問題,因為我知道你們道歉并糾正了這一點。但如果他們有擔憂,難道不應該讓他們表達嗎?我知道不同人有不同的看法。

米拉·穆拉蒂:

當然,我們認為持不同觀點非常重要,能夠公開表達這些擔憂并討論安全問題也非常重要。自OpenAI成立以來,我們一直非常開放地討論虛假信息的問題,從GPT-2時代開始,這就是我們早期研究的問題之一。

過去幾年,技術進步令人難以置信,速度之快超乎預期,這也增加了人們對社會準備情況的普遍焦慮。我們看到科學的發展方向,所以可以理解人們對未來的擔憂。

具體來說,我們在OpenAI所做的工作和部署這些模型的方式,我認為我們有一支出色的團隊,我們非常安全地部署了這些模型,我對此感到非常自豪。鑒于技術進步的速度和我們自身的進展,專注于安全、保護框架非常重要,我們需要考慮如何看待前沿模型訓練和部署的風險。

主持人:

對于這種情況,你打算如何應對呢?我能理解這種變化,畢竟在谷歌、微軟和亞馬遜的早期階段都經歷過類似的情況。隨著公司的成長,很多事情都會發生變化。谷歌早期也是一團亂麻,Facebook也換過不少首席運營官,多得我都數不清了。很多人都經歷過這樣的階段,所以這是很正常的。但對于山姆這種情況,你打算如何應對呢?

例如,他投資了一些外國公司,一些公司與OpenAI有業務往來。他投資了3.75億美元在一家名為Helion的能源公司,這是一個很酷的公司,他們目前正在與OpenAI談論大量的電力需求。眾所周知,計算需要大量電力。你每天是如何與他打交道的?你如何看待這種關系?你在哪些方面會提出反對意見?

米拉·穆拉蒂:

我一直在提出反對意見。我認為這是正常的,特別是在我們所做的工作中。山姆會對團隊提出很高的要求,我認為這是好的。有遠大的抱負,挑戰我們的極限是很重要的。當我覺得事情超出界限時,我會提出反對意見。這就是我們六年來的合作關系,我認為這種關系是有成效的。你需要能夠提出反對意見。

主持人:

你能舉一個例子嗎?比如,斯嘉麗·約翰遜的例子。我知道你和山姆在ChatGPT的音色這塊工作上,是合作完成的,對吧?

米拉·穆拉蒂:

是的,我們有很強的合作關系。但選擇聲音并不是我們的優先事項之一,不是我們共同工作的內容。我在這方面做了決策,但有山姆他自己的聯系。在我選擇了Sky之后,他聯系了斯嘉麗·約翰遜。我們沒有討論這個具體的決定,這是很不幸的。

主持人:

所以他是單獨行動的。

米拉·穆拉蒂:

他有自己的聯系,我們在這件事上沒有完全協調一致。

主持人:

你覺得這在很多方面很有趣,特別是因為電影和他的推文。但我認為這是OpenAI的一個錯誤,因為人們會覺得你們在偷竊,即使你們沒有偷她的聲音,山姆看起來就像是《小美人魚》里的烏蘇拉,偷走了她的聲音。即使事實并非如此,但這種感覺是存在的。

那么,讓我最后談談選舉和虛假信息,然后我們會接受觀眾的提問。當你考慮到AI對虛假信息的力量和即將到來的總統選舉時,是什么讓你感到擔憂?從你的角度來看,最糟糕的情況和最可能的負面結果是什么?

米拉·穆拉蒂:

首先,我們盡可能防止AI的濫用,包括提高信息檢測的準確性,了解平臺上的情況并迅速采取行動。第二是減少模型中的偏見因素。盡管ChatGPT因過于自由而受到批評,但這并非我們的本意,我們正不遺余力地降低模型中的偏見因素,并將持續努力。第三是我們希望在選民尋找投票信息時,模型可以指向正確的信息。這是我們在選舉時關注的三件事。

關于虛假信息,編造信息是不可接受的。我們需要有非常可靠的方法讓人們了解他們在看的是編造的信息。我們已經做了一些事情。我們為圖像實施了C2PA,它類似于護照,隨著內容在不同平臺上傳播。我們還開放了DALL·E的分類器,可以檢測圖像是否由DALL·E生成。

元數據和分類器是處理這個問題的兩種技術方法。這是信息來源的證明,專門針對圖像。我們還在研究如何在文本中實現水印技術。

主持人:

我再問你一個最后的問題,然后我們會接受觀眾提問。你今天得到了這個問題的不同版本。你對這項技術非常樂觀,但我想讓你總結一下。如果你是個悲觀主義者,甚至有公司說如果我不阻止山姆·阿爾特曼,他會毀滅人類,我覺得這有點夸張。

而其他人則認為,無論如何,這將是最好的事情,我們都會在火星上享受美味的士力架。所以我希望你能告訴我,你最擔心的事情和最希望的事情,然后我們會接受觀眾提問。

米拉·穆拉蒂:

首先,我不認為這是一個預定的結果。我認為我們在構建和部署這項技術方面有很大的自主權。為了做好這件事,我們需要找到一種創造共同責任的方法。

我們今天談論了很多這個問題,我確實認為控制人們做特定的事情,是非常非常可怕的,意味著你可以控制社會朝特定方向發展。

就希望而言,我非常興奮的一件事是能夠在任何地方提供高質量和免費的教育。對我來說,教育非常重要,它改變了我的生活。

今天我們有這么多工具可用,比如電和互聯網,很多工具都是可用的。但大多數人仍然是這種狀況——在一個教室里有一個老師,50個學生,每個人都學同樣的東西。想象一下,如果教育能夠根據你的思維方式、文化規范和具體興趣進行定制,這將極大地擴展知識和創造力的水平。

如果我們能夠真正掌握這個,在很年輕的時候就學會如何學習,我認為這非常強大,并能推動人類知識的進步,從而推動整個文明的進步。

觀眾:

ChatGPT的模型截止到2021年9月,你們依賴網絡搜索來補充數據。我輸入一個搜索請求時,確保你們從正確的參考資料中獲取正確答案?由于你們授權的受信任來源是商業秘密,我們如何知道你們提供的信息是正確的?

米拉·穆拉蒂:

實際上,有趣的是,ChatGPT項目最初是一個關于真實性的研究項目。我們希望能夠表達不確定性,并希望能夠在大型語言模型中引用信息,然后它轉變成了不同的研究項目。

所以,我們今天在平臺上所做的事情,我們有瀏覽器和工具,我們引入了工具和瀏覽功能,可以查找內容,我們也在與出版商合作,以便將新聞和額外內容帶到平臺上,提高準確性。

我們正在著力解決大模型編造虛假信息的問題,這顯然是大型語言模型的一個主要問題,但其出現的頻率正在逐步降低。我認為這類問題不會徹底消失,但隨著模型變得更聰明,我們有理由相信它們的表現會越來越好,我們應該期待它們輸出的內容也會更加貼近真實情況,不會編造虛假信息。虛假信息問題非常復雜,我們正在努力探索解決之道,以確保信息的真實性和準確性。

我們希望信息來源盡可能廣泛,同時還需要考慮產品的應用場景,不同的應用場景會有所不同。

每日經濟新聞綜合自公開消息

如需轉載請與《每日經濟新聞》報社聯系。
未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。

讀者熱線:4008890008

特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望作品出現在本站,可聯系我們要求撤下您的作品。

Ai 模型 GPT

歡迎關注每日經濟新聞APP

每經經濟新聞官方APP

0

0