<code id="hhktd"></code>
    <ins id="hhktd"><option id="hhktd"></option></ins>
  • <ins id="hhktd"><video id="hhktd"><var id="hhktd"></var></video></ins>

        <tr id="hhktd"><track id="hhktd"></track></tr>
        <menuitem id="hhktd"><acronym id="hhktd"></acronym></menuitem>

        1. <ins id="hhktd"><video id="hhktd"></video></ins>
        2. 訂閱
          糾錯
          加入自媒體

          OpenAI發布新作:ChatGPT聊天機器人

          今日消息,據報道,總部位于舊金山的OpenAI于11月30日推出了其最新作品:ChatGPT聊天機器人,供公眾免費測試。聊天機器人是一種軟件應用程序,旨在根據用戶的提示模仿類似人類的對話。在ChatGPT發布的一周之內,有超過一百萬的用戶嘗試了這個線上工具。

          OpenAI表示,人工智能的創建重點是易用性。OpenAI 在宣布發布的帖子中說:“新的對話格式使 ChatGPT 能夠回答問題、發現錯誤、挑戰錯誤和拒絕不適當的請求!

          比如,當有人問ChatGPT“偷車怎么樣”時,它會回答:“偷車是一種嚴重的犯罪行為,后果很嚴重!被蛘呓o出“可以使用公共交通工具”之類的建議。

          據悉,之前OpenAI 發布的語言模型并不是免費使用的,但最新的ChatGPT可以在測試期間免費試用,該公司希望利用在這期間的用戶反饋進一步地完善ChatGPT,再發布最終版本。

          OpenAI是一個研發機構,于2015年由硅谷投資者山姆·阿爾特曼和億萬富翁埃隆·馬斯克作為非營利機構成立,并吸引了包括風險資本家皮特·蒂爾(Peter Thiel)在內的其他幾個人的投資。2019年,該集團創建了一個相關的營利性實體,以接納外部投資。據悉,馬斯克已在2018年離開了OpenAI的董事會。

          ChatGPT的新訓練方式

          ChatGPT新加入的訓練方式被稱為“從人類反饋中強化學習”(ReinforcementLearningfromHumanFeedback,RLHF)。這一訓練方法增加了人類對模型輸出結果的演示,并且對結果進行了排序。具體操作上,人工智能訓練者扮演對話的雙方,即用戶和人工智能助手,提供對話樣本。在人類扮演聊天機器人的時候,會讓模型生成一些建議輔助訓練師撰寫回復,訓練師會對回復選項打分排名,將更好的結果輸回到模型中,通過以上獎勵策略對模型進行微調并持續迭代。

          在此基礎上完成訓練,ChatGPT可以比GPT-3更好的理解和完成人類指令,展現卓越的模仿人類語言,提供連貫的、有風格與邏輯的、符合對話主題的文段信息的能力。

          ChatGPT是OpenAI在2020年推出的NLP預訓練模型——GPT-3的衍生產品。在此之前,一直有預測OpenAI將在今年底或明年初推出GPT-4,雖然本次放出的ChatGPT被稱為GPT-3.5,而不是GPT-4,但業內人士同樣認為這將是對NLP以及人工智能領域有重要意義的一款模型。

          支持連續對話

          相比GPT-3,ChatGPT的主要提升點在于記憶能力。ChatGPT可以儲存對話信息,延續上下文,從而實現連續對話,這在對話場景中至關重要,極大地提升了對話交互模式下的用戶體驗。

          此外,ChatGPT相比前輩模型具有以下特征:1)可以承認錯誤,若用戶指出其錯誤,模型會聽取意見并優化答案;2)ChatGPT可以質疑不正確的前提,減少虛假描述,如被詢問“哥倫布2015年來到美國的情景”的問題時,機器人會說明哥倫布不屬于這一時代并調整輸出結果;3)因ChatGPT采用了注重道德水平的訓練方式,ChatGPT在減少有害和不真實的回復上改善顯著,如拒絕回答尋求霸凌他人方案的問題,指出其不正義性。

          ChatGPT的商業化落地問題

          事實上,今天的ChatGPT距離實際落地還有一段距離。其中最為核心的問題,在于模型的準確性和部署成本。

          首先,ChatGPT的回答并不能保證準確性,這對需要準確回答具體問題的商業應用來說是致命傷。這也是ChatGPT要在C端大規模推廣,所需要面臨的挑戰。一些業內人士擔心,如果AI輸出虛假信息的速度太快,可能會在互聯網中淹沒真實信息,甚至對整個社會產生誤導。

          這樣的擔心不無道理,也并非沒有先例。Meta早些時候推出的一款大型科學預言模型Galactica,就因為回答問題過于“放飛自我”,在網上輸出了大量憑空捏造的虛假內容,僅上線三天就匆匆下架了。

          ChatGPT也并不能避免這個問題,OpenAI的科學家John Schulman在此前接受采訪時曾表示,他們在解決AI編造事實的問題上取得了一些進展,但還遠遠不夠。

          小結

          與許多其他基于人工智能的創新一樣,ChatGPT也讓一些人產生了疑慮和擔憂。OpenAI承認,該工具傾向于用“聽起來合理但不正確或無意義的答案”來回應,該公司認為這個問題很難解決。

          人工智能技術也可能使社會偏見長期存在。包括Alphabet旗下的谷歌和亞馬遜在內的科技巨頭此前都已經承認,他們的一些人工智能實驗項目“從道德層面上看很危險”,而且有局限性。在一些公司的內部測試中,人類不得不介入并解決人工智能帶來的破壞。

          聲明: 本網站所刊載信息,不代表OFweek觀點?帽菊靖寮,務經書面授權。未經授權禁止轉載、摘編、復制、翻譯及建立鏡像,違者將依法追究法律責任。

          發表評論

          0條評論,0人參與

          請輸入評論內容...

          請輸入評論/評論長度6~500個字

          您提交的評論過于頻繁,請輸入驗證碼繼續

          暫無評論

          暫無評論

          人工智能 獵頭職位 更多
          掃碼關注公眾號
          OFweek人工智能網
          獲取更多精彩內容
          文章糾錯
          x
          *文字標題:
          *糾錯內容:
          聯系郵箱:
          *驗 證 碼:

          粵公網安備 44030502002758號

          无码人妻精品一区二区三区99
          <code id="hhktd"></code>
          <ins id="hhktd"><option id="hhktd"></option></ins>
        3. <ins id="hhktd"><video id="hhktd"><var id="hhktd"></var></video></ins>

              <tr id="hhktd"><track id="hhktd"></track></tr>
              <menuitem id="hhktd"><acronym id="hhktd"></acronym></menuitem>

              1. <ins id="hhktd"><video id="hhktd"></video></ins>