其實,ChatGPT是一個對話的AI模型,就像一個聊天機器人,一些公司客戶服務網(wǎng)站上的自動聊天機器人。由OpenAI開發(fā)的,OpenAI是一家致力于確保人工智能造福全人類的科技研究公司。ChatGPT中的“GPT”指的是“預訓練轉換器”,是ChatGPT處理語言的方式。OpenAI于2022年11月發(fā)布的免費聊天機器人ChatGPT已席卷互聯(lián)網(wǎng)。
在過去幾十年中,ChatGPT與聊天機器人的區(qū)別在于,ChatGPT是使用來自人類反饋的強化學習(RLHF)進行訓練的。RLHF涉及使用人工智能訓練器和獎勵模型,將ChatGPT開發(fā)成能夠挑戰(zhàn)錯誤、回答后續(xù)問題和承認錯誤的機器人。為了測試ChatGPT,Investopedia要求它“寫一篇新聞風格的文章,解釋ChatGPT是什么”。該機器人回應稱,它“旨在根據(jù)給定的提示或?qū)υ捝深愃迫祟惖奈谋?rdquo;。它補充說,因為它是根據(jù)人類對話的數(shù)據(jù)集訓練的,所以它可以理解上下文和意圖,直觀的對話。ChatGPT在回應時還表示,其應用程序可能包括客戶服務機器人、為社交媒體或博客創(chuàng)建內(nèi)容,以及將文本從一種語言翻譯成另一種語言。
如上所述,ChatGPT有許多潛在用途。它們的范圍從更直接的聊天機器人類型的功能到更晦澀難懂的應用程序,用戶將來很可能會探索一系列其他可能的方法來利用這項技術,包括在搜索引擎的應用中。
雖然聊天機器人已經(jīng)存在了很多年,但ChatGPT被視為對先前模型的可理解性、流動性和徹底性的顯著改進。
OpenAI提供的ChatGPT的復雜性的一個演示包括一個欺騙機器人的提示:詢問克里斯托弗·哥倫布(據(jù)稱)2015年何時來到美國。ChatGPT的回應避開了這個陷阱,澄清了雖然哥倫布在2015年沒有來美國,但它說,如果他來了,他(ChatGPT)一定對他的訪問做出一些反應。
OpenAI列出了ChatGPT的一些限制,因為它目前存在于模型的演示中。其中包括ChatGPT有時會編寫連貫但不正確的語句,它會對不明確的查詢進行假設,模型往往過于冗長,以及類似的問題。
在其公開發(fā)布的頭幾周,ChatGPT因其被指控學生用于撰寫人工智能書面論文和作業(yè)而成為頭條新聞。對濫用ChatGPT進行學術作弊的擔憂越來越大,以至于普林斯頓大學的一名計算機科學學生創(chuàng)建了一個應用程序,該應用程序旨在識別和揭露機器人創(chuàng)建的寫作。
對一些人來說,ChatGPT帶來了更嚴重的風險。例如,一些分析師預測,該機器人可能會被用于使惡意軟件和網(wǎng)絡釣魚攻擊更加復雜,或者黑客可能會利用該技術開發(fā)自己的人工智能模型,而這些模型可能控制得不太好。一些人對ChatGPT可能被用來創(chuàng)建和分享聽上去很有道理但是具有誤導性的政治性觀點或者“政治不正確的”的誘導性文章。