1. <progress id="6oqix"><bdo id="6oqix"></bdo></progress>
    2. <track id="6oqix"><nobr id="6oqix"></nobr></track>
      1. <samp id="6oqix"></samp>
        1. <menuitem id="6oqix"><strong id="6oqix"></strong></menuitem>
          <samp id="6oqix"></samp>
            1. <menuitem id="6oqix"><strong id="6oqix"><u id="6oqix"></u></strong></menuitem>

              1. 數字等同于近親繁殖可能導致人工智能自行崩潰

                人工智能(人工智能)先知新聞販子預測生成式人工智能炒作將結束,并談論即將發生的災難性“模型崩潰”。

                但這些預測有多現實呢?到底什么是模型崩潰?

                討論于2023,但普及了最近,“模型崩潰”是指一種假設的場景,即由于互聯網上人工智能生成的數據的增加,未來的人工智能系統會逐漸變得愚蠢。

                對數據的需求

                現代 AI 系統是使用機器學習.程序員設置了底層的數學結構,但實際的“智能”來自訓練系統模仿數據中的模式。

                但不僅僅是任何數據。當前的生成式人工智能系統需要高質量的數據,而且需要大量的數據。

                為了獲取這些數據,OpenAI、谷歌、Meta 和 Nvidia 等大型科技公司不斷在互聯網上搜尋,以收集信息數 TB 的內容為機器供料。但自從廣泛可用有用生成式 AI 系統 2022 年,人們越來越多地上傳和分享部分或全部由 AI 制作的內容。

                2023 年,研究人員開始思考他們是否能夠擺脫僅依賴 AI 創建的訓練數據,而不是人類生成的數據。

                有巨大的激勵措施來完成這項工作。除了在互聯網上激增之外,人工智能制作的內容也是便宜得多比人類數據的來源。它也不是道德合法可疑集體收集。

                然而,研究人員發現,如果沒有高質量的人類數據,人工智能系統就會在人工智能制造的數據上進行訓練變得越來越笨因為每個模型都從前一個模型中學習。這就像近親繁殖問題的數字版本。

                這 ”反芻訓練“似乎導致了模型行為的質量和多樣性的降低。這里的質量大致意味著樂于助人、無害和誠實的某種組合。多樣性是指反應的變化,以及人們的文化和社會觀點在人工智能輸出中得到體現。

                簡而言之:通過如此頻繁地使用人工智能系統,我們可能會污染我們首先需要使它們有用的數據源。

                避免坍塌

                大型科技公司不能過濾掉人工智能生成的內容嗎?沒有。科技公司已經花費了大量的時間和金錢來清理和過濾他們抓取的數據,一位業內人士最近分享說,他們有時會丟棄高達 90%他們最初為訓練模型收集的數據。

                隨著專門刪除 AI 生成內容的需求增加,這些工作可能會變得更加艱巨。但更重要的是,從長遠來看,區分人工智能內容實際上會越來越難。這將使合成數據的過濾和刪除成為(財務)收益遞減的游戲。

                歸根結底,迄今為止的研究表明,我們無法完全消除人類數據。畢竟,這是人工智能中的“我”的來源。

                我們是否正在走向一場災難?

                有跡象表明,開發人員已經不得不更加努力地獲取高質量的數據。例如文檔隨著 GPT-4 的發布,參與該項目數據相關部分的工作人員數量空前。

                我們也可能正在耗盡新的人類數據。一些估計說,人類生成的文本數據池最早可能在2026年被挖掘出來。

                這可能就是 OpenAI 和其他公司的原因競相鞏固獨家合作伙伴關系與行業巨頭合作,例如Shutterstock,美聯社新聞集團.他們擁有大量專有的人類數據,這些數據在公共互聯網上并不容易獲得。

                然而,災難性模型崩潰的可能性可能被夸大了。到目前為止,大多數研究都著眼于合成數據取代人類數據的情況。在實踐中,人類和人工智能數據可能會并行積累,這降低塌陷的可能性.

                最有可能的未來情況還將看到一個由某種程度上多樣化的生成式人工智能平臺組成的生態系統被用于創建和發布內容,而不是一個單一的模型。這也增加了抗崩潰的魯棒性。

                對于監管機構來說,這是一個很好的理由,可以通過以下方式促進良性競爭限制壟斷在人工智能領域,并為公益技術開發.

                真正令人擔憂的問題

                過多的人工智能內容也會帶來更微妙的風險。

                大量的合成內容可能不會對人工智能的發展構成生存威脅,但它確實威脅到(人類)互聯網的數字公共利益。

                例如,研究人員發現下降了 16%ChatGPT 發布一年后,編碼網站 StackOverflow 上的活動。這表明,在一些在線社區中,人工智能輔助可能已經減少了人與人之間的互動。

                超生產來自 AI 驅動的內容農場也使得找到不是的內容變得更加困難塞滿廣告的點擊誘餌.

                可靠地區分人工生成的內容和人工智能生成的內容變得越來越不可能。解決這個問題的一種方法是對人工智能生成的內容進行水印或標記,就像我和許多其他人一樣最近突出顯示,正如最近的澳大利亞政府所反映的那樣暫行立法.

                此外,還存在另一個風險。隨著人工智能生成的內容變得系統性地同質化,我們面臨著失敗的風險社會文化多樣性一些人群甚至可以體驗到文化擦除.我們迫切需要跨學科研究社會和文化挑戰由人工智能系統提出。

                人與人之間的互動和人的數據很重要,我們應該保護它們。為了我們自己,也許也是為了未來模型崩潰的可能風險。

                亞倫·斯諾斯韋爾(Aaron J.Snoswell),人工智能問責制研究員,昆士蘭科技大學 (Queensland University of Technology)

                本文重新發表自對話根據知識共享許可。閱讀原文.

                寶寶起名 起名

                本站所有相關知識僅供大家參考、學習之用,部分來源于互聯網,其版權均歸原作者及網站所有,如無意侵犯您的權利,請與小編聯系,我們將會在第一時間核實并給予反饋。
                相關期刊推薦
                湖北農機化

                湖北農機化

                農業基礎科學 - 省級期刊

                現代企業

                現代企業

                企業經濟 - 省級期刊

                體育風尚

                體育風尚

                合作期刊 - 省級期刊

                中國市場

                中國市場

                合作期刊 - 國家級期刊

                工程技術研究

                工程技術研究

                合作期刊 - 省級期刊

                產業與科技論壇

                產業與科技論壇

                合作期刊 - 省級期刊

                才智

                才智

                合作期刊 - 國家級期刊

                中阿科技論壇

                中阿科技論壇

                信息科技 - 省級期刊

                文學教育

                文學教育

                中國文學 - 省級期刊

                瘋狂英語

                瘋狂英語

                中國語言文字 - 省級期刊

                新材料新裝飾

                新材料新裝飾

                合作期刊 - 省級期刊

                性色欲情侣网站www