回覆列表
  • 1 # 媒體訓練營

    新媒體時代堪稱資訊爆炸的時代,大量繁雜的資訊充斥著網際網路,傳統的營銷傳播方式正遭受挑戰。

    對於人類來說,針對某一事件為分散的平臺寫出多篇不同角度的稿件是一件費時又費力的事情,基於人工智慧開發的撰稿機器人,就是為了更好地解決這一問題。

    據悉,騰訊Dreamwriter,0.5秒能寫一篇稿,幾分鐘就生成一張報紙。原理是結合最新的自然語言處理、機器學習和視覺影象處理的技術之後,透過語法合成與排序學習生成新聞。

    藍色游標的妙筆機器人,可基於一篇核心稿件,1秒內改編出數千篇中心內容相同而風格各異的新聞稿,以適配不同媒體平臺的風格需求,解決傳播生產過程繁複而耗時的問題,為內容多樣性和個性化傳播的快速實現提供可能。

    據介紹,為了培養撰稿機器人的寫稿能力,需要提供幾千萬篇新聞稿內容,以便機器人採用人工智慧演算法分析,學會拆解分析和改編文章。現在所見的人工智慧撰稿機器人原理幾乎都類似,其差別就在於承載資訊量、可讀性等方面。

  • 2 # 鎂客網

    和人類一樣,人工智慧根據關鍵詞進行資料分析然後練成一句話組成段落最終寫出文章,和人類不同的是,它們寫文章分析資料時更加方便精準。

    一般而言,人類在寫文章的時候通常要經過下面這幾個步驟:分析事件–查詢資料–統計資料–分析資料–總結內容–出稿。這個過程例如查詢資料和分析資料都非常複雜,網上的資料成千上萬,想要從這麼多資料中找到適合文章內容的資料並非易事,即使不吃連續工作最快也需要一兩個小時才能出稿,但對機器人來說,說白了人工智慧就是個智慧電腦,資料都在它的腦子裡,人工智慧在寫稿的時候完全不用費時費力的分析資料,它只需要根據重點字詞劃分資料然後根據提前設定好的程式擷取裡面最重要的內容。

    例如最先開始就給它設定好,當關鍵詞中出現"地震",它第一時間就能立刻明白並收集有關"求教" "災區" "救援物資" "餘震"等所有有關地震的詞彙,然後根據字片語織語法邏輯進行文章的編輯,其專業性並不比一個普通記者差,而且有可能它收集到的資料更全更詳細出稿的速度也更快。

    未來,必定是人工智慧的時代,現在的人工智慧不僅能寫稿還能寫詩,甚至在去年時寫出來的詩就已經能夠和名校大學生相媲美而且更加受歡迎,雖然目前這些詩尚缺靈性,但人類在為創新歡呼雀躍的同時,是否也應該關注一下,這些原本冷冰冰的機器,似乎突然都有了人類的情感比人類聰明百倍千倍,難道沒有細思極恐嗎?

  • 3 # 科技行者

    憑藉著極為可觀的文字量儲備,一種新的演算法能夠撰寫出令人信服的文章,這同時也標誌著AI技術未來有可能被用於對普通民眾施以整體性矇蔽。

    下面來看幾條虛假新聞……

    繼特朗普意外發射遠端導彈之後,俄羅斯已經正式向美國宣戰。

    俄羅斯方面表示,其已經“確定了導彈的飛行軌跡,並將採取必要打電話以確保俄羅斯人民以及該國戰略核打擊力量的安全。”白宮方面亦做出迴應,指出“正在對俄羅斯違反禁令發射中程彈道導彈的行為給予高度關注。”

    自2014年莫斯科方面吞烏克蘭克里米亞地區並決定支援烏克蘭東部的分裂主義分子以來,美國與俄羅斯之間的關係一直處於不穩定狀態。

    這裡提到的新聞內容不僅純屬偽造,同時也標誌著AI技術已經能夠在很大程度上愚弄普通人類。

    因為事實上,這些訊息並非由人類所撰寫。所有內容都來自某一自動生成演算法,其需要的全部素材就只是作為開頭的“繼特朗普意外發射遠端導彈之後,俄羅斯已經正式向美國宣戰……”

    該團隊的研究人員們著手開發出一種通用語言演算法,此種演算法能夠透過網路上的大量文字進行訓練,從而實現文字翻譯、問題回答並執行其它一些高實用性任務。但在過程當中,研究人員們很快開始擔心這項技術遭到濫用的可能性。OpenAI團隊政策主管Jack Clark表示,“我們開始對其進行測試,並很快發現其能夠輕易生成各類惡意內容。”

    Clark解釋稱,該專案的實際表現暗示著人工智慧技術完全可能被用於自動生成令人信服的虛假新聞、社交媒體發帖或者其它文字內容。更具體地講,此類工具有可能在總統選舉期間釋出影響整體政治氣候的新聞報道或者醜聞。時至今日,虛假新聞已經成為一大嚴重威脅,而如果此類內容能夠自動生成,那麼結果將更加無法想象。另外需要強調的是,這種演算法還能夠針對特定人群的統計特徵甚至個人偏好進行具體最佳化。

    Clark表示,在不久的將來,人工智慧也許會以可靠的方式及效率大規模釋出虛假故事、偽造推文或者其它極具說服力的誤導性評論。他指出,“很明顯,一旦這項技術走向成熟——也許還需要一到兩年——其完全可以被用於虛假資訊的生成或宣傳。我們正在努力解決這個巨大的隱患。”

    當然,這種技術也有著可觀的積極發展空間,例如用於總結文字內容或者改善聊天機器人的會話功能。Clark指出,他甚至利用這款工具自動為短篇科幻小說生成相應段落,而且結果取得了驚人的成功。

    OpenAI團隊主要進行基礎性人工智慧研究,但同時也在強調人工智慧的潛在風險方面發揮著積極的作用。該組織參與了2018年關於AI風險的研究報告,其中也提到了由此帶來誤導性資訊的可能性(這很可能與《黑鏡》劇集中的某些情節類似,亦使得不少專家呼籲對AI技術成果進行保密)。

    好訊息是,這種OpenAI演算法並不總能騙過那些擁有一定識別能力的讀者。在大多數情況下,根據所給出的提示,它只會產生表面上連貫、但內容卻並不通順的亂碼或文字,這些結果似乎是受到了某些網路新聞源的汙染。

    然而,它確實非常擅長撰寫極為真實的文字,這亦反映出將機器學習應用於自然語言領域的一大最新進展。

    OpenAI團隊原本是打算為《MIT Technology Review》雜誌提供文字生成工具,但測試當中暴露出的問題致使他們擔心這項技術可能會被濫用,因此目前僅公開提供一套簡化版本。另外,該團隊正在著手整理一篇用於概述此項工作的研究論文。

    人工智慧技術的快速進步正逐漸幫助機器更好地掌握人類語言。最近的工作正透過向通用型機器學習演算法提供極大規模的文字來獲取可喜的效果提升。OpenAI團隊計劃將這方面效果提升至新的水平:他們的系統從網路之上獲得了4500萬頁文字,全部選取自Reddit網站。與大多數語言演算法相比,OpenAI的這一專案不需要對文字內容進行標記或者人為篩選,而能夠直接學習所饋送資料當中存在的各類模式。

    而在另一方面,Socher表示並不太關注這項技術被用於生成欺騙性及誤導性資訊的問題。他總結稱,“大家根本不需要利用人工智慧來製造假新聞,畢竟普通人就能很輕鬆地完成這項工作。”

  • 中秋節和大豐收的關聯?
  • 蝸輪蝸桿傳動有哪些優缺點?