美國非牟利 AI 研究機構 OpenAI 日前公開以自然語言來生成文章的語言人工智能模型「 GPT-2 」的完整版。
GPT-2 本來是一個純粹訓練來從網上文本中預測下一個單詞的語言模型,它是以 800 萬頁網頁來訓練,參數達 15 億個。 OpenAI 過去一直擔心公開完整版 GPT-2 會引發大規模濫用問題,所以一直以來都沒有公開源碼,只公開縮小版模型和相關論文。經過多個月觀察,由於未有發現廣泛濫用情況,所以就決定公開完整版本。
另外,機器學習工程師 Adam King 同時升級了名為「 Talk to Tramsformer 」的網站使用 GPT-2 完整版模型,讓一般人都可以體驗一下 GPT-2 的「作文」威力。
我們先使用網頁提供一段發現會說英語的獨角獸段落來作測試,發現 GPT-2 作文能力簡直是龍飛鳳舞,段落中只提及獨角獸在安弟斯山脈發現, AI 就將文章「擴展」成獨角獸是為了找尋附近有水源和食物的棲身之所,言之鑿鑿。
不過當我們以簡短的字句「 Hong Kong Chief Executive announces resignation 」來要求 AI 作文時,它竟然產生出一個年表,指中國軍隊在 1914 年入侵香港,趕走駐港英軍,又指 1946 年日本與中國簽署「中英聯合聲明」,讓日本人可以自由定居香港,讓人啼笑皆非,不過文句尚算順暢。
如果大家有與趣考考人工智能作文能力的話,不妨到下面網站作一段短文讓它「老作」一番。
Talk to Transformer 網站:按此