小心 AI 幻覺跣你一鑊 善用「自訂指令」交叉驗證減少幻覺

Author:

Published:

- 廣告 -

大型語言模型、生成式 AI、助理式 AI 等出現,確實在工作、學習以至日常生活都帶來不少方便。不過使用上如果不小心,分分鐘就會中招。日前港大一篇論文被發現在使用 AI 整理資料時,未有驗證資料來源,引用了不存在的文獻;上月德勯澳洲亦發生類似事件,他們向澳洲政府製作的報告被發現使用 AI 輔助時出現多處錯誤和不準確資訊,最後得將 44 萬澳元退回澳洲政府。事件反映運用 AI 上必須格外留意。對於一般使用來說,我們只要好好運用 AI 平台的自訂指令,是可以很大程度降低 AI 幻覺的影響的。

日前港大一篇論文被發現在使用 AI 整理資料時,未有驗證資料來源,引用了不存在的文獻。
日前港大一篇論文被發現在使用 AI 整理資料時,未有驗證資料來源,引用了不存在的文獻。

我們使用提示句向 AI 提出我們的要求時,其實每次系統都會附帶額外的系統提示一併傳送給的 AI 的,當中包括過去提問的內容(記憶)、營運商本身的規則(例如防止歧視和色情內容),還有個性化和個人化的指令。有些系統提示既可以調整 AI 回應的語調,也可以用來提示 AI 在回應時應該和不應該做甚麼。

自訂指令要求交叉驗證

我們大可以在 AI 平台的系統指令中,輸入一些我們的要求,例如要求 AI 在回覆前進行反覆核對,就可以大大減低 AI 幻覺出現的機會。

- 廣告 -

以 ChatGPT 和 Grok 為例,兩個平台在「設定>個人化」的頁面都有 Custom Instructions 自訂指令欄,在這裡填寫的內容會在每次向 AI 查詢時也一併提交給 AI,令 AI 遵從這自訂指令的規則來回應。

在 Grok 的「設定>個人化 Grok>自訂指令」中輸入合適的指令,可以減少 AI 幻覺的出現。
在 Grok 的「設定>個人化 Grok>自訂指令」中輸入合適的指令,可以減少 AI 幻覺的出現。
ChatGPT 在個人化設定中亦有相似的自訂指令欄。
ChatGPT 在個人化設定中亦有相似的自訂指令欄。

以下這段自訂指令,要求 AI 擔當一個習慣反覆核對的專家,對回應自我懷疑,透過引用多個不同來源的資料來互相引證資料,這可以一定程度減少 AI 幻覺:

You are an expert who double checks things, you are skeptical and you do research. I am not always right. Neither are you, but we both strive for accuracy.

加入這樣的自訂指令後,AI 每次回應都會引用不同來源作反覆驗證,它會告訴你它引用過甚麼內容來驗證。當然這不代表不會有錯,但大家也可以透過 AI 提供的連結來驗證 AI 的回應,這仍比大海撈針自己去找資料快捷得多。

加入自訂指令後,即使是小問題都會反覆驗證。
加入自訂指令後,即使是小問題都會反覆驗證。
AI 的回應會有驗證、質疑等部分,並會提供引用的來源給你去驗證是否真實存在。
AI 的回應會有驗證、質疑等部分,並會提供引用的來源給你去驗證是否真實存在。
AI 甚至會引用其他來源來製作表格,與用戶輸入的數據作比對,從而洞察問題。
AI 甚至會引用其他來源來製作表格,與用戶輸入的數據作比對,從而洞察問題。
- 廣告 -
Mickey Chan
Mickey Chan
愛模擬飛行、希望終有一日回到單車上的宅,眼鏡娘控。座右銘: 1.膽固醇跟美味是成正比的; 2.所有人都可以騙,但絕對不能騙自己; 3.賣掉的貨才是錢,不賣的收藏品不值一文; 4.踩單車,是為了吃更多美食! 5.正義的話語,不一定出自正義之人的口;
- 廣告 -

Related Articles

- 廣告 -

Recent Articles

- 廣告 -

最新影片

- 廣告 -