首頁 > 新聞 > 智能 > 正文

        ChatGPT 全新功能公開演示!能做 Excel、能上網,聊天機器人未來會成為全能 app-當前通訊

        2023-04-21 20:23:49來源:ZAKER科技  

        作為 OpenAI 的總裁,Greg Brockman 毫無疑問是世界上最了解和最會用 ChatGPT 的人之一。


        (資料圖片僅供參考)

        最近,他在 TED 做了一場精彩的演講,詳細地演示了 ChatGPT 的「正確用法」,以及分享他對 ChatGPT、AI 的獨到思考。

        ChatGPT 到底是什么?它對人類社會有什么意義?AI 未來應該怎么發展?從這篇演講中你都能找到答案。

        核心信息提煉:

        未來幾個月內所有 ChatGPT 用戶都能用上插件功能。

        建立在無數工具之上的 ChatGPT 是一種新的用戶界面模式。

        人類與 AI 協作能解決許多看似不可能解決的問題,例如重新設計我們與計算機交互的方式。

        七年前,我們成立了 OpenAI,因為我們覺得人工智能領域正發生著一些非常有趣的事情,而我們希望幫助它朝著積極的方向發展。自那以后,整個領域的發展速度十分驚人。

        我們從使用我們的技術的開發者(比如 Raymond)那里聽到了許多美妙的事情,真的很令人欣慰。

        我們已經聽到了一些人對人工智能感到興奮、擔憂或同時感受這兩種情緒的聲音老實說,這也是我們自己的感覺。

        最重要的是,我們感到我們正在進入一個歷史時期,在這個時期里,我們將會定義一項對我們社會至關重要的技術。

        我相信我們可以將其善加利用。今天,我想向大家展示這項技術的當前狀態以及我們所堅持的一些基本設計原則。首先,我要向大家展示的是,構建人工智能工具與構建人類工具的不同之處。

        我們現在有一個新的 DALL-E 模型,可以將其作為 ChatGPT 的插件搭配使用。

        你可以這樣做:給個建議,告訴我結束演講后的晚餐吃什么,并把它畫出來。你可以從 ChatGPT 的交流中得到創意和創造性的靈感,而 AI 則能為你完成剩余的所有細節。

        現在,ChatGPT 并不僅僅生成文本,它也生成圖像(注:使用了 DALL- E 插件后)。這使得它能夠更好地代替你,把你的想法變成現實。

        現在,讓我們來看另一個 AI 工具的例子,比如存儲記憶。當你說「將它保存下來以備后用」時,這個工具將會保存這個信息。這些工具在使用時都是有跡可循的,你可以清晰地了解到機器在使用哪些工具,并提供反饋。

        (圖片生成好了)這里,我要指出的是這是一個現場演示,這一切都是由 AI 實時生成的,所以我實際上甚至不知道我們會看到什么。這張圖看起來很不錯,把我也給看餓了。

        讓我們回到正題,我們還使用其他工具擴展了 ChatGPT,例如,記憶功能。您可以說「將這個保存到以后(的使用中)」。

        當你在使用這些工具時,你會看到寫著「使用 DALL-E 應用程序」的提示。順便說一下,所有 ChatGPT 用戶都會在未來幾個月內都能用上這個功能。

        在這里你可以看到 AI 是如何像人類一樣編寫提示的,便于你在后續做反饋調整。

        現在這些信息已經被保存,讓我展示一下如何使用這些信息,并與其他應用程序組合使用。

        你可以說:「現在為我之前建議的美食制作一個購物清單,還要發布在 Twitter 上?!?/p>你可以看到,ChatGPT 會選擇合適的插件,而無需我的指引。我認為這是一種新的用戶界面模式。

        過去我們總是習慣于思考該怎么在不同的應用程序之間切換、復制 / 粘貼,并且通常只有在你對這些應用很熟悉的情況下,才能獲得一個很好的使用體驗。

        現在我們通過一個建立在無數工具之上的統一語言界面,就可以完成這些工作。

        ChatGPT 為我們生成了一個 Instacart 的購物清單,里面包含了我們需要的購買的材料,非常方便。

        需要說明的是,傳統的用戶界面仍然非常有價值。通過傳統用戶界面,我們可以快速地修改實際數量(等操作)。這表明傳統的用戶界面并沒有因此而消失,只是現在我們有了一種新的、更高效的方式來構建它們。

        現在,我們已經起草了一條推文,供我們審閱。這也是非常重要的一點。我們可以根據自己的意愿,去調整人工智能的工作。

        現在,讓我們回到主題上。我們打造 ChatGPT 的關鍵,不僅僅在于創建這些工具,還在于教導 AI 如何使用它們。當我們提出一些高難度的問題時,我們要求它做些什么呢?

        為此,我們采用了一個古老的想法——阿蘭 · 圖靈 1950 年論文中提到的圖靈測試。

        他說,你不可能用程序來為這個測試生成一個答案,相反,你可以教它。就像教一個小孩子一樣,我們可以建立一個機器,并提供獎勵和懲罰來教導它嘗試一些事情,不論是好的還是壞的。

        這正是我們訓練 ChatGPT 的方法。我們將其分為兩個步驟。

        首先,我們通過無監督學習的過程生成一個所謂的「機器孩子」,就像圖靈所說的一樣。我們向這個「小孩」輸入整個世界、互聯網的數據,然后讓它根據提供的文本預測下一個詞。

        這個過程賦予了它各種技能,例如可以看懂數學題并通過推理得出答案。

        但要掌握這些技能還需要進行第二步,即教導 AI 如何使用這些技能。為此,我們要給 AI 提供反饋。

        我們讓 AI 用多種方法為我們提供不同的建議,然后再由人類評分,選出最合理的答案。

        這樣不僅可以強化 AI 的具體表達,還可以強化產生答案的整個過程。

        這使得 AI 能夠概括、教授并推斷人類的意圖,還能將其應用于它之前沒有見過或沒有收到過反饋的情況。

        但有時我們需要教授 AI 的東西并不是我們期望的。

        例如,當我向可汗學院展示 GPT-4 時,他們認為它很棒,可以用來給學生做輔導。他們發現 GPT-4 不會糾正學生的數學錯誤,如果在對話中出現錯誤,它會假裝 1 加 1 等于 3 并繼續運行。

        因此,我們需要收集更多的反饋數據,教授 AI 要在特定情況下反駁人類。

        當在 ChatGPT 中點下 按鈕時,就會給我們發送一個信號告訴我們需要收集這段反饋。這是我們聽取用戶意見的方式,確保我們正在構建對每個人更有用的東西。

        提供高質量的反饋是一件困難的事情,但是 AI 本身愿意提供幫助。它愿意幫助我們提供更好的反饋,并隨著時間的推移擴大我們監督機器的能力。

        舉個例子。你可以向 GPT-4 提個問題,然后它會給你回答兩個月。要知道,大模型回答的答案往往并不可靠,我們怎么確保它的答案是正確的呢?

        通常情況下,我們需要自己上網再次搜索相關的問題,對照檢查答案。這非??菰?、繁瑣、費時。

        現在我們可以把這些重復性工作丟給 AI。利用瀏覽工具,我們可以 AI 自己來核實事實。我們把剛才的問題和回答輸入進去,然后讓它重新核實事實,它就會自己寫下它的思考鏈,一步步地搜索所需內容、對應檢查答案。

        結果證明,GPT-4 果然回答錯了,正確答案是兩個月又一個星期。這是它自己檢查出來的正確結果。

        這個過程非常有趣,因為它需要人類與人工智能多步合作:人類使用事實核查工具是為了為另一個人工智能生成數據,從而使其能更好地為人類服務。

        我認為這種合作模式在未來會變得非常普遍,即我們需要人類和機器協作來解決問題,確保人類以一種可視化和值得信賴的方式管理、監督和反饋機器。在這兩種力量的共同努力下,我們可以建立更加可靠的機器。

        我相信,隨著時間的推移,如果我們成功地把這個過程進行下去,我們將能夠解決一些看似不可能解決的問題——例如我們能夠重新設計我們與計算機交互的方式。

        我相信,隨著時間的推移,如果我們成功地進行這個過程,我們將能夠解決一些看似不可能的問題。為了讓你更好地理解我所說的 " 不可能 " 的難度,我認為我們將能夠重新思考我們與計算機交互的幾乎每一個方面。

        讓我們拿電子表格作為例子。

        自從 40 年前出現了 VisiCalc 以來,電子表格就一直以某種形式存在。

        但是,在這段時間里,它們的變化并不是很大。這里有一個關于過去 30 年 arXiv 上的所有 AI 論文的電子表格。大約有 167000 篇。

        讓我向你展示 ChatGPT 如何分析這個數據集。我們可以讓 ChatGPT 使用 Python 解釋器作為工具,這樣它就能像數據科學家一樣運行代碼。你可以直接上傳一個文件并提出問題。

        你可以問它:「能不能做一些探索性的圖表?」

        需要強調的是,這是一個超級高層次的指令,里面帶有大量的意圖,我甚至不知道我想要的是什么。因此,AI 必須推斷出我可能感興趣的內容。

        它給出了一些不錯的想法,例如對論文作者數量的每篇文章的直方圖、每年論文數量的時間序列、論文標題的詞云。我認為所有這些都很有趣。很棒的是,它確實可以畫出來。

        然后它會根據每年的論文數量制作一張圖表。然而,我們可以看到在 2023 年發生了一些奇怪的事情,看起來我們一直處于指數增長,然后就發生了墜崖式的跌落。

        順便說一下,所有這些都是 Python 代碼,你可以隨便檢閱生成的過程。這里的問題很簡單,因為我們今年還沒有結束,因此從數據來看 2023 才會這么糟糕。

        讓我們繼續輸入我們的反饋,讓他統計根據 2022 年 4 月 13 日前發布的文章數量占據 2022 年全年文章總量的百分比,公平地預測 2023 年全年的論文數量。

        也許這對它來說有點過分,因為它本已經神奇地推斷出這是我想要的圖標。

        但我為我的意圖提供了這個額外的指引。在幕后,AI 又寫了一遍代碼,所以如果你想要檢查它在做什么都可以看到。

        現在,它做出了正確的預測。

        如果你注意到的話,它甚至更新了標題。我沒有要求這一點,但它知道我想要什么。

        現在我們回到幻燈片上。這張幻燈片展示了我對我們未來如何使用這項技術的愿景。

        在這個故事中,一個人帶著他病得很重的狗去看獸醫,但獸醫做出了錯誤的診斷,說:「讓我們再觀察一下?!谷绻魅苏兆隽耍@只狗可能就沒能活下來。

        但他沒有。他將狗狗的血液測試和完整的醫療記錄輸入給了 ChatGPT,ChatGPT 回復說:「我不是獸醫,你需要找專業人士咨詢,但我可以給你一些假設?!?/p>

        帶著這些信息,他找到了第二個獸醫,后者成功地挽救了狗的生命。

        我想表達的是,盡管我們現在的系統并不完美,但如果一個人與 ChatGPT 作為頭腦風暴伙伴合作,或許就能取得非同凡響的結果。我認為這是我們考慮如何將 AI 整合到我們的世界中時,需要反思和思考的事情。

        我深信,讓 AI 正確運作需要每個人的參與。我們要共同地決定如何將 AI 整合進我們的生活,為它制定規則,確定 AI 將能夠和不能夠做什么。

        AI 的發展已經超出了人們的預期,因此,我們每個人都必須得熟練掌握它,這也是我們發布 ChatGPT 的原因之一。我相信,我們能夠實現 OpenAI 的使命,確保人工通用智能造福人類。

        訪談:

        CA:主持人 Chris Anderson:

        GB:Greg Brockman

        CA:哇,我注意到在場的每個人的內心都有些許顫抖。我想,很多人看到這里時,會覺得自己的工作每個環節都需要重新考慮。這太驚人了,但也太可怕了。那么,讓我們談談吧。我的第一個問題就是,你們究竟能如何做到這一點?

        OpenAI 只有大約幾百名員工,Google 有數千名員工從事人工智能領域的研究。為什么是 OpenAI 開發了這個震驚世界的技術呢?

        GB:實際上,我們都是站在巨人的肩膀上進行研究的,這是毫無疑問的。如果你關注計算機進展、算法進展或數據進展,那么這些都是整個行業的進展。但我認為,我們在 OpenAI 內部從早期就做出了許多深思熟慮的選擇。

        第一個決定是直面現實。我們深思熟慮,思考實現進展需要什么。我們嘗試了許多失敗的嘗試,所以你只看到了我們成功的地方。我認為最重要的一點是讓團隊中不同的人和諧地合作。

        CA:你是否認為你們在語言模型中看到的東西意味著,如果繼續投資和壯大它們,某些時刻可能會出現某些新的東西呢?

        GB:是的。而且,我認為這非常有啟示性。高層的深度學習一直是我們想做的事,這是一個深度學習實驗室,但具體該如何做呢?

        早期我們不知道該怎么做。我們嘗試了許多事情,其中一個人正在訓練一個模型,預測亞馬遜評論中的下一個字符,這聽起來就像是一個句法分析的過程,但他沒想到的是這其實一個最先進的情感分析分類器。這個模型可以告訴你評論是積極的還是消極的。

        今天,我們會覺得這很容易,任何人都可以做到。但當你第一次看到這種從底層句法過程中出現的語義,我們知道,我們必須要擴展這個模型,看看它會走到哪里。

        CA:ChatGPT 被描述為預測機器,然而我們所看到的卻感覺不太可能是通過預測得出的。有沒有一刻,讓你看到的事情出乎意料,震驚到了你的內心?請給我分享一下這個瞬間。

        GB:是的,你可以在 ChatGPT 中嘗試做 40 位數之間的加法,這個模型將會計算出它們的和,這意味著它確實學會了一個內部的法則來解決這個問題。

        而真正有趣的是,如果你讓它計算一個 40 位數加上 35 位數的和,它經常會出錯。這表明它確實在學習這個過程,但它還沒有完全泛化,對嗎?就像你不能記住 40 位加法表一樣,那比宇宙中的原子還要多。

        所以它必須學會了一些普遍的方法,但它還沒有完全學會:噢,我可以將這個方法推廣到處理任意長度的任意數值加法。

        CA:所以這里發生的是你讓它擴大并查看大量的文本。它正在學習一些你不知道它能夠學習的東西。

        GB:是的,而且它也更加細膩。所以我們開始真正擅長的一門科學是預測其中一些新出現的功能。而要做到這一點,我認為這個領域中一個非常被低估的事情是工程質量。

        就像你構建火箭時,每個公差都必須非常小一樣,在機器學習中同樣如此。你必須將整個堆棧的每個部分都正確地編好,然后才能開始進行這些預測。這里有許多非常平滑的縮放曲線,它們向我們展示了智能的本質。

        如果你查看我們的 GPT-4 博客文章,你可以看到這些曲線?,F在我們開始能夠進行預測了。例如,我們能夠預測編碼問題的表現。我們基本上觀察一些模型,這些模型要小 1000 倍或者 10000 倍。這其實是縮放曲線的一部分,盡管現在還在早期階段。

        CA: 在這里,一個大的擔憂就是,隨著規模的擴大,有些東西可能是可以被預測的,但是有時又會出現令人驚訝的情況。誰能保證這里不會有巨大的風險導致某些非??膳碌氖虑榘l生呢?

        GB: 我認為這些都是程度和規模以及時間的問題。此外,人們還會忽略與世界的融合,這也是一件極為突出的緊急事件。這就是我們認為逐步部署的重要原因之一。

        因此,我認為目前我們所看到的,如果你看看這次演講,大部分的注意力都集中在提供高質量的反饋上。今天我們所做的任務,可以進行檢查。比如說,很容易看出這道數學問題的正確答案是七而不是八。

        但就連書籍的摘要,也是一個很難監督的事情。你怎么知道這個書摘是好的呢?你必須讀整本書。沒人想這么做。因此,我認為重要的是我們要一步一步地做。當我們進入到書摘階段時,我們必須妥善監督這個任務。

        我們必須建立起機器能夠真正執行我們的意圖的記錄。我認為我們將不得不制定出更好、更高效、更可靠的方法來擴展這個技術,使機器與你保持一致。

        CA: 隨后我們將會聽到有批評者說,你知道,系統內部沒有真正的理解力,它總是會產生錯誤它沒有常識等等。你相信它任何時刻都會是這樣嗎?你剛才談到的規模的擴大和人類的反饋,基本上會帶它走向真理和智慧等目標,你有信心嗎?

        GB: 是的,我相信 OpenAI,我的短期答案是「yes」。我認為 OpenAI 的方法一直都是盡可能地接觸現實。這個領域是充滿了破滅的承諾,所有這些專家都在說這樣或者那樣,事實并非如此。

        人們已經說了 70 年內神經網絡都行不通。但他們不一定對。也許還需要再過 71 年這樣子。但我認為我們的方法一直都是要推動這個技術的極限,從而真正看到實際效果,因為這會告訴你,噢,這就是我們如何過渡到一個新的范式。我們還沒有挖盡這個領域的潛力。

        CA:你所持有的立場相當具有爭議性,認為公開發布并利用這一切(而不是只讓你的團隊提供反饋),讓全世界都提供反饋是做好這件事的正確途徑。但是……如果會出現不好的事情,當然這已經有不少。

        我聽說過 OpenAI 在成為非營利組織時的最初目的,是要作為一個偉大的審核員,對于那些可能使用 AI 開展未知、可能惡意的行為的大公司進行調查。你將建立一種模型,以某種方式使它們對其負責,并且在需要時能夠減緩進展。

        或者至少我聽說是這樣的。然而,所發生的情況與此相反。你們發布的 GPT 尤其是 ChatGPT,在技術界引起了巨大的震動,以至于 Google、Meta 等公司現在都在瘋狂趕超你們。

        他們的一些批評是,你們迫使他們在沒有適當防護的情況下發布這些內容,否則就會失敗。你們如何證明自己的做法是對社會負責而不是魯莽的呢?

        GB:是的,我們經常思考這些問題。

        嚴格意義上來說,我們始終不可能做得完全正確。但是,有一件事我認為至關重要,即從一開始思考如何構建通用人工智能,使其有益于整個人類的角度出發,你該怎么做呢?

        你會選擇保持秘密,然后獲得這個極其強大的東西,接著就能將其安全使用,或者你就這樣去執行計劃,希望一切都能成功。我不知道怎樣執行這個計劃,或許其他人知道。但對于我來說,這個計劃讓人感到恐懼,并不合適。

        因此,我認為這個替代方案是我所看到的唯一另一條路線,即直面現實。我認為,在這些機器變得完美、超級強大之前,給人們時間提供反饋、觀察它們實際行動是非常重要的。

        我們從 GPT-3 看到了這一點。當時,我們真的擔心,人們使用它的主要目的是生成錯誤信息、嘗試干預選舉。而它實際上被用來生成銷售偉哥的垃圾郵件,這成為了它最主要的用途。

        CA:所以說,垃圾郵件是很糟糕的,但有些事情比它還糟糕。讓我來談個思維實驗。假設你坐在一個房間里,桌子上有一個盒子。你相信在那個盒子里裝著一些東西,其中有很大的可能性是美好的東西。但有百分之一的可能會釋放出世界無法想象的邪惡。你會打開這個盒子嗎?

        GB:那么,當然不。我認為你不能那么做。老實說,我會告訴你一個以前從未講過的故事,就是在我們成立 OpenAI 不久之后,我記得我在波多黎各參加了一次 AI 會議。

        我坐在酒店房間里望著這美好的水,所有人都玩得很愉快。你會想一想,如果你可以選擇讓潘多拉的盒子在 5 年后或 500 年后打開,你會選擇哪個,對吧?

        一方面,你也許會認為對你個人來說,5 年后更好一些。但如果能等到 500 年后,人們可以有更多時間做對它,你會選擇哪個呢?我當時真的很感受到這一點。我覺得當然是 500 年。所以,我真的很明白你必須把它正確地應對。但我認為這并不是實際情況。

        如果你看看計算機的整個歷史,這是一次行業甚至是作為技術發展的人類歷史上的轉變。你越是不把它們放在一起,就意味著你會留下一個負擔,也就是說,如果有人或某一時刻有人設法連接到電路上,那么你就會突然擁有這個非常強大的東西,沒有人有任何時間去調整,也不知道會有什么樣的安全措施。

        所以,我的一個觀點是,即使是其他技術的開發,例如核武器,人們談論它是一個人類社會從 0 到 1 的變化。但我實際上認為,它的研發在時間上一直非常平穩。

        CA:我的理解是,我們擁有的模型可以視為我們已經孕育了這個非凡的孩子,這個孩子可能擁有超能力,讓人類走向一個全新的世界。

        這是我們共同的責任,為這個孩子提供護欄,共同教導它成為明智的人,而不是摧毀我們所有人。對嗎

        GB:是的。我認為非常重要的是,我們要學會理解這項技術,找出如何提供反饋,決定我們想從中得到什么。我希望這會是正確的路徑。

        點擊「在看」

        是對我們最大的鼓勵

        關鍵詞:

        責任編輯:hnmd003

        相關閱讀

        相關閱讀

        推薦閱讀

        亚洲乱码卡三乱码新区| 三上悠亚亚洲一区高清| 91亚洲va在线天线va天堂va国产| 亚洲av无码不卡私人影院| 色天使亚洲综合在线观看| 亚洲成色在线影院| 久久精品亚洲一区二区| 欧洲亚洲国产清在高| 亚洲乱码日产一区三区| 亚洲综合图色40p| 亚洲日韩国产精品乱| 午夜亚洲国产成人不卡在线| 亚洲成av人片在www鸭子| 在线观看亚洲AV每日更新无码| 亚洲AV无码一区二区三区在线| 亚洲国产成人久久99精品| 亚洲成人网在线播放| 亚洲免费观看网站| 亚洲一区免费视频| 最新国产精品亚洲| 亚洲综合精品伊人久久| 亚洲欧美日韩国产成人| 亚洲另类无码一区二区三区| 亚洲人成网站免费播放| 亚洲精品色播一区二区| 亚洲a无码综合a国产av中文| 亚洲AV噜噜一区二区三区 | 亚洲国产精品无码久久久不卡| 亚洲色大成网站WWW久久九九| 亚洲一区二区三区影院| 亚洲成a人片在线观看无码专区| 亚洲中文久久精品无码| 亚洲va国产va天堂va久久| 亚洲av中文无码乱人伦在线播放 | 亚洲综合校园春色| 亚洲精品无码aⅴ中文字幕蜜桃| 国产亚洲视频在线| 在线亚洲精品福利网址导航| 国产亚洲A∨片在线观看| 亚洲一区二区三区首页| 亚洲乱码一二三四区麻豆|