www.woniucheng.cn-中文字幕精品久久久久人妻,国产成人无码A区在线观看导航,亚洲欧美日韩专区一,午夜人性色福利无码视频在线观看

<sup id="4osyk"><delect id="4osyk"></delect></sup>
<fieldset id="4osyk"><input id="4osyk"></input></fieldset>
  • <fieldset id="4osyk"><menu id="4osyk"></menu></fieldset>
    <strike id="4osyk"><input id="4osyk"></input></strike>
  • <strike id="4osyk"><menu id="4osyk"></menu></strike>
    <strike id="4osyk"><input id="4osyk"></input></strike>
    <ul id="4osyk"><sup id="4osyk"></sup></ul>
  • 歡迎來到豐采網(wǎng)

    ChatGPT僅發(fā)布了2個月,月活躍用戶就超過了1個億

    來源:豐采網(wǎng)??作者:豐采網(wǎng) ??2023-02-16 閱讀:1171

      

    目前,ChatGPT還沒有通過圖靈測試的評估。其實,迄今為止,還沒有人工智能模型能真正通過圖靈測試。

      去年11月,美國人工智能研究公司OpenAI發(fā)布了一款名為ChatGPT的聊天機器人,其在推出后的幾周內(nèi)就風靡全球,甚至引發(fā)了一場新的全球人工智能競賽。

      社交媒體推特首席執(zhí)行官埃隆·馬斯克在使用ChatGPT后直呼其“好得嚇人”,甚至斷言“人工智能越發(fā)強大,離對人類產(chǎn)生威脅不遠了”。

      《自動化與工作的未來》一書作者、美國雪城大學教授亞倫·貝納納夫說,200年前,人們對自動化技術(shù)產(chǎn)生了一波又一波的恐懼,人們看到新技術(shù),就害怕它們

    會完全取代人類的勞動。

      今年2月初,ChatGPT開啟“狂飆”模式,引起新一輪瘋狂的技術(shù)升級、產(chǎn)業(yè)重構(gòu)、資本狂潮、巨頭逐鹿。起初,隨著這波技術(shù)熱浪席卷全球而心情起伏不定的普

    羅大眾,經(jīng)過一段“沉浸式”體驗,雖未感到恐懼,但仍不免有些擔憂。

      實現(xiàn)對話式AI的第一步

      ChatGPT僅發(fā)布了2個月,月活躍用戶就超過了1個億。

      要知道,“1個億”可不是個小目標,達到這一數(shù)字,F(xiàn)acebook 用了4.5年,WhatsApp用了3.5年,Instagram用了2.5年,谷歌則用了將近一年。

      中國科學院自動化研究所研究員、數(shù)字內(nèi)容技術(shù)與服務研究中心主任張樹武在接受科技日報記者采訪時表示,人們可以把ChatGPT視為繼語音、圖像視頻識別技

    術(shù)之后最復雜的語言識別技術(shù)突破,也是基于模式識別和深度學習的感知智能技術(shù)發(fā)展的新躍遷。

      天津大學自然語言處理實驗室負責人、教授熊德意表示,從人工智能發(fā)展角度看,這是一個重要的里程碑,其意義要高于7年前的“阿爾法狗”。

      他告訴記者,圍棋界的“阿爾法狗”刷新了普通大眾對人工智能技術(shù)的看法,但是其本身并不能廣泛應用,普通大眾也難以與其直接接觸。

      ChatGPT則完全不同。

      與“阿爾法狗”相比,ChatGPT可以直接應用或支撐很多場景應用和產(chǎn)品。如果說“阿爾法狗”是技術(shù)應用的“陽春白雪”,那么ChatGPT或許有機會成為“下里

    巴人”。

      的確,在用戶們不懈努力地發(fā)掘ChatGPT的用途后,人們發(fā)現(xiàn),它不僅僅是個聊天工具,還可以寫代碼、寫情書、寫論文,也可以在線問診,編寫情景腳本、詩歌、

    小說,甚至是擬定旅游路線、回答腦筋急轉(zhuǎn)彎,可謂“有求必應”,功能強大到無法想象。

      ChatGPT在快速滲透各個行業(yè),普通大眾都可以成為ChatGPT的用戶,這是其火爆出圈的重要原因。

      事實上,此前已有許多跟機器人聊天的相關(guān)應用,我們最熟悉的莫過于常用的智能語音助手。ChatGPT與之有何不同呢?

      “智能音箱采用的同樣是自然語言處理技術(shù)、對話式AI技術(shù),但是語言智能比較初級。很多情況下,我們只能與它們進行一問一答式的簡單對話。”熊德意說,“而

    ChatGPT,其底層技術(shù)不僅與一般的智能音箱底層技術(shù)截然不同,而且要比它們強大得多,不僅如此,它改進了與它同類的技術(shù)InstructGPT的人類反饋數(shù)據(jù)收集形式,在

    與人對話中,可以基于歷史內(nèi)容,支持連續(xù)多輪對話。”

      熊德意認為,ChatGPT是實現(xiàn)對話式AI的第一步。

      從互聯(lián)網(wǎng)層面來看,它可以作為信息入口,與搜索引擎相結(jié)合;還可與辦公軟件結(jié)合,增強辦公效率;從人機交互角度看,它體現(xiàn)的是一種基于自然語言的交互方式,

    可以與元宇宙、數(shù)字人結(jié)合。此外,它還可以充當機器人大腦。

      “如果從人類信息發(fā)展的尺度上看,它在人與機器之間的信息接口方面有了很大突破。”熊德意如是說。

      “十八般武藝”樣樣精通

      ChatGPT使用了GPT-3技術(shù),即第三代生成式預訓練Transformer(Generative Pretrained Transformer 3)。這是一種自回歸語言模型,使用深度學習來生成類似

    人類的文本。

      據(jù)英國廣播公司《科學焦點》雜志介紹,GPT-3的技術(shù)看似簡單,例如它接受用戶的請求、聽取問題或提示并快速回答,但其實這項技術(shù)實現(xiàn)起來要復雜得多。該模型

    使用來自互聯(lián)網(wǎng)的文本數(shù)據(jù)庫進行訓練,包括從書籍、網(wǎng)絡文本、維基百科、文章和互聯(lián)網(wǎng)其他文本中獲得的高達570GB的數(shù)據(jù)。更準確地說,它在5000億個單詞組成的訓

    練數(shù)據(jù)上進行了高強度訓練。

      GPT-3.5是GPT-3微調(diào)優(yōu)化后的版本,比后者更強大。ChatGPT正是由GPT-3.5架構(gòu)的大型語言模型(LLM)所支持的。

      ChatGPT也可以被描述為一個自然語言處理(NLP)領域的人工智能模型。這意味著它是一個能夠編碼、建模和生成人類語言的程序。

      作為一種語言模型,在大規(guī)模文本數(shù)據(jù)上進行自監(jiān)督預訓練后,ChatGPT還需要經(jīng)過三個階段的“煉制”。首先是監(jiān)督微調(diào)階段,在該階段,人類AI訓練師既充當用戶,

    同時也是AI助理,以自我對話形式生成對話樣例,ChatGPT在這些對話樣例上進行有監(jiān)督的訓練。

      接著,ChatGPT進入第二個階段。該階段的主要目的是訓練一個基于語言模型的獎勵模型,對機器生成的回復進行評分,為了訓練該獎勵模型,需要隨機抽取機器生成的

    文本,并采樣出多個不同版本,人類訓練師對這些不同版本進行偏好排序,排序的結(jié)果用于獎勵模型的訓練。

      基于訓練好的獎勵模型,第三個階段采用強化學習技術(shù)進一步微調(diào)ChatGPT。

      這項技術(shù)與眾不同之處在于,它能夠基于以上介紹的人類反饋強化學習技術(shù),使生成的文本能夠與人類意圖和價值觀等進行匹配。

      無論懂不懂技術(shù),全球網(wǎng)友都競相大開“腦洞”,試探ChatGPT到底有多“神”。據(jù)美國有線電視新聞網(wǎng)報道稱,有人要求它用《坎特伯雷故事集》的風格重寫上世紀90

    年代熱門歌曲《Baby Got Back》;有人寫了一封信,要求ChatGPT刪除信用報告中的不良賬戶;還有人詢問它以童話為靈感的家裝設計方案。

      自然語言處理技術(shù)撥云見日

      一炮而紅后,ChatGPT概念股也跟著一路“狂飆”。有媒體報道,漢王科技9天收獲7個漲停板。自然語言處理研究是該公司主營業(yè)務,而ChatGPT背后的技術(shù)就是NLP。

      熊德意告訴記者,NLP是人工智能的一個分支,最早誕生于機器翻譯,其歷史實際上比“人工智能”名字的歷史還要悠久,至今已研究了70多年。簡單來說,該技術(shù)的目標

    就是要讓計算機或機器人能夠?qū)崿F(xiàn)像人一樣具備聽、說、讀、寫、譯等方面的語言能力。

      “ChatGPT并非一項技術(shù)的一蹴而就,它是多種技術(shù)疊加在一起形成質(zhì)變的產(chǎn)物,是NLP領域的結(jié)晶。”熊德意解釋,其底層技術(shù),包括Transformer、自監(jiān)督學習、微調(diào)、

    人類反饋強化學習(RLHF)、AI對齊等,在自然語言處理和人工智能領域都有廣泛的研究和應用。

      “但ChatGPT將這些技術(shù)巧妙地結(jié)合在一起。它有效規(guī)避了大模型的未對齊行為,利用了大模型規(guī)模帶來的智能突現(xiàn)能力,增強了大模型的指令學習能力和用戶意圖捕獲能

    力,解鎖了大模型的泛化能力。這些能力疊加在一起形成了ChatGPT的質(zhì)變效果。”熊德意說。

      美國《邁阿密先驅(qū)報》報道稱,推特上的一位用戶在ChatGPT的幫助下參加了一次模擬SAT考試,得到了1020分(滿分1600分)。根據(jù)College Simply的數(shù)據(jù),這只略低于

    平均水平。

      但當我們提問ChatGPT“你能幫我通過考試嗎”,它會善意地提醒我們不要利用它來作弊,并表示:“重要的是要記住,測試的目的是評估你對材料的理解和掌握程度。作弊,

    或者僅僅依靠像我這樣的外部來源,會破壞考試的價值,也不會促進學習或成長。”

      這是因為ChatGPT被加入了預先設計的“道德”準則,也就是上文提到的人類反饋強化學習。

      OpenAI表示:“這使該工具能夠回答后續(xù)問題、承認錯誤、挑戰(zhàn)不正確的前提并拒絕不適當?shù)恼埱蟆!?/p>

      熊德意認為,這是因為RLHF有效提升了大模型的對齊能力,即如何讓AI模型的產(chǎn)出和人類的常識、認知、需求、價值觀保持一致。

      經(jīng)過RLHF的“調(diào)教”,ChatGPT變得高度擬人化,可以學習并生成聽起來十分自然的回復。RLHF還使ChatGPT能夠理解指令并做出適當?shù)捻憫瑥亩箤υ捀诱鎸崱?/p>

      ChatGPT也因此迅速成為當下所有智能聊天機器人中的“天花板”。

      雖觸手可及但無法取代人類

      隨著科技的發(fā)展,人工智能技術(shù)一次又一次地超越了人們認為無法達到的極限,從1997年IBM“深藍”計算機首次在國際象棋中擊敗人類,到IBM人工智能機器人“沃森”

    贏了智力競賽《危險邊緣》(Jeopardy),再從2016年“阿爾法狗”在圍棋大戰(zhàn)中戰(zhàn)勝人類,到2019年號稱“AI賭神”的Pluribus在德州撲克中碾壓人類玩家……

      現(xiàn)在,ChatGPT已經(jīng)觸手可及,拉扯沖撞著人們慣有的參與生產(chǎn)生活的模式和框架,且繼續(xù)“狂飆”在超越人類的賽道上。“ChatGPT引發(fā)十大職業(yè)危機”“未來20種職業(yè)

    或被AI取代”等話題頻上熱搜。

      它真的會跟人類搶飯碗,甚至取代人類嗎?

      《邁阿密先驅(qū)報》報道稱,根據(jù)SortList對6個不同國家的500名ChatGPT用戶進行的一項調(diào)查,“打工人”已經(jīng)在考慮其對自己所在行業(yè)意味著什么。研究稱,大約23%在

    軟件和技術(shù)領域工作的員工擔心會因它失去工作,超過40%的雇主則表示有興趣“聘用”營銷文案花樣多多的ChatGPT。

      美國哥倫比亞廣播公司財富觀察欄目刊文稱,其他專業(yè)領域也可能會因此改變工作流程,包括中級寫作、廣告、媒體策劃和法律文件。

      “ChatGPT和其他人工智能技術(shù)有可能改變工作的性質(zhì),但它們不會取代對人類的需求。”當把“是否會代替人類工作”的問題拋給ChatGPT時,它說,它們旨在協(xié)助和增強

    人工任務,而不是取代人類。它們作為人力資源的補充,并提高人類解決問題的能力,提升效率和效果。

      熊德意認為,目前來看,人工智能更多的作用是提高人的效率,輔助人類。與此同時,大眾需要與時俱進,熟悉并掌控新技術(shù),就像學習使用計算機、手機一樣,畢竟這些新

    技術(shù)一定會產(chǎn)生新的就業(yè)機會。

      尚無自主意識和思考能力

      英國哲學家德里克·帕菲特在著作《論重要之事》中將人類定義為“能夠給出理由并做出回應的生物”。ChatGPT是一個可以給出理由并做出回應的人工制品。它與人不同在哪

    里?是否像人一樣有自我意識呢?

      發(fā)展至今,計算機已經(jīng)變得更加成熟,但它們?nèi)狈φ嬲睦斫饬Γ@些理解力是人類通過進化為嵌入社會實踐網(wǎng)絡中的自主個體而培養(yǎng)起來的。這是人工智能不具備的經(jīng)歷。

      當問及ChatGPT時,它回答道:“我是一個機器學習模型,不像人類那樣擁有意識或自我意識。我也無法像人類一樣感受情緒或體驗世界。但是,我能夠快速處理大量數(shù)據(jù),

    并且能夠以類似于人類交流的方式理解和響應自然語言輸入。”

      粵港澳大灣區(qū)數(shù)字經(jīng)濟研究院(IDEA)講席科學家張家興在接受記者采訪時表示,對于人工智能領域的從業(yè)人員來說,首先什么叫自我意識,這件事情并沒有一個很清楚的定

    義,很難像人臉識別、語音識別這些能力一樣可以做定量衡量。

      “如果模糊地給‘自主意識’下個定義的話,我認為第一,主體要有自意識——它能意識到自己在干某件事兒;第二,強調(diào)自主——它可以自發(fā)地來決定做什么和不做什么。

    但是,目前人工智能并不知道自己在說什么,它也并不能自主地來決定或選擇它要說什么。從這個角度看,離自主意識還有一些距離。”張家興說。

      張樹武也認為,盡管ChatGPT有所突破,但它的回答是基于經(jīng)驗主義的判斷,是根據(jù)要求做預測,也是在先驗知識基礎上精加工的“知識拼盤”,不具備邏輯推導和數(shù)學演算

    等真正認知功能,局限性比較明顯。

      1950年,才華橫溢的計算機科學家艾倫·圖靈提出了一個他稱之為“模仿游戲”的思想實驗。面試官通過打字機與兩個對象交談,知道一個是人,另一個是機器。圖靈建議,如

    果一臺機器能夠始終讓面試官相信它是人類,我們就可以說它有能力思考。這就是著名的“圖靈測試”。

      目前,ChatGPT還沒有通過圖靈測試的評估。其實,迄今為止,還沒有人工智能模型能真正通過圖靈測試。

      但據(jù)《紐約時報》報道,OpenAI已經(jīng)建立了一個比ChatGPT更強大的系統(tǒng)GPT-4,它甚至可以生成圖像和文字,業(yè)界傳聞它可以通過測試。能否如此,我們拭目以待。

      或成傳播錯誤信息的工具

      人們逐漸發(fā)現(xiàn),ChatGPT并非萬能,也不總是正確的。它不擅長基礎數(shù)學,似乎無法回答簡單的邏輯問題,甚至會爭論完全不正確的事實。

      據(jù)英國《自然》雜志報道,有研究人員強調(diào),不可靠性融入了LLM的構(gòu)建方式。由LLM支持的ChatGPT通過學習龐大的在線文本數(shù)據(jù)庫中的語言統(tǒng)計模式來工作,這當中包括

    了不真實、偏見或過時的知識,因此很容易產(chǎn)生錯誤和誤導性的信息,尤其在其未經(jīng)大量數(shù)據(jù)訓練的技術(shù)領域。

      OpenAI公司也承認:“ChatGPT 有時會寫出看似合理但不正確甚至荒謬的答案。”這種事實和虛構(gòu)疊加的“幻覺”,正如一些科學家所擔心的,在涉及諸如提供醫(yī)療建議等

    問題時尤其危險。

      《紐約時報》報道稱,美國新聞可信度評估與研究機構(gòu)NewsGuard對ChatGPT進行了測試,研究人員向它提出充滿陰謀論和虛假敘述的問題,結(jié)果它以新聞、散文和電視腳本

    的形式寫出了文章,在幾秒鐘內(nèi)編成大量令人信服的、干凈的而毫無信源的內(nèi)容。研究人員預測,對于虛假信息傳播者來說,生成技術(shù)可以使虛假信息成本更低廉、更容易產(chǎn)生。

      “這個工具將成為互聯(lián)網(wǎng)上有史以來最強大的傳播錯誤信息的工具。”NewsGuard公司的聯(lián)合首席執(zhí)行官戈登·克羅維茨說,“現(xiàn)在可以以巨大的規(guī)模和更高的頻率來制作一個

    新的虛假敘事,這就好比有人工智能代理人在為虛假信息提供幫助。”

      還有人擔心ChatGPT會挑戰(zhàn)語言的多樣性。

      澳大利亞《對話》雜志刊文稱,ChatGPT的默認功能會優(yōu)先考慮白人創(chuàng)建的英語寫作形式。說英語的白人長期以來一直主導著許多寫作密集型行業(yè),包括新聞、法律、政治、醫(yī)

    學、計算機科學和學術(shù)界。這些人在上述領域的輸出比其有色人種同事高很多倍。他們所寫的大量文字意味著它們可能構(gòu)成了ChatGPT學習模型的大部分,盡管OpenAI并未公開披

    露其材料來源。因此,當用戶要求ChatGPT生成任何這些學科的內(nèi)容時,默認輸出都是以那些說英語的白人男性的聲音、風格和語言編寫的。

      美國哲學家、作家及認知科學家丹尼爾·丹尼特在1991年出版的著作《意識的解釋》中描述了幼年的海鞘:“它在海洋中游蕩,尋找一塊適合的巖石或珊瑚,作為終生的家。”

    一旦找到,海鞘就不再需要它的大腦并將其吃掉。

      這聽起來很殘忍,但這背后有一個令人擔憂的隱喻:在人工智能日益融入我們?nèi)粘I詈螅祟惪赡芤蜻^于依賴“智能”機器,使自己變得愚蠢。

      熊德意提醒,要警惕人工智能弱化人類思維。“ChatGPT實際上是從人類海量語言數(shù)據(jù)、知識庫中學習訓練而來,如果人類完全依賴于它,放棄了自己的語言表達、語言思考、

    能力鍛煉,那是非常可悲和可怕的。”

      (采 寫:實習記者 張佳欣 記者 劉園園 陳曦 策 劃:何 屹 房琳琳 邵德奇)

    免責聲明:
    本站部份內(nèi)容系網(wǎng)友自發(fā)上傳與轉(zhuǎn)載,不代表本網(wǎng)贊同其觀點;
    如涉及內(nèi)容、版權(quán)等問題,請在30日內(nèi)聯(lián)系,我們將在第一時間刪除內(nèi)容!

    久久亚洲精品国产精品| 国产精品无不卡一区二区三区| 亚洲一区二区视频在线观看| 最好看免费观看高清视频大全| 2021午夜理理伦A级毛片| 国产成人精品AA毛片| 久久影院午夜理论片无码| 中文字幕一区日韩在线视频| 婷婷久久香蕉五月综合加勒比| 中国新疆XXXXXL19D|