驚!父母在健康建議上竟信 ChatGPT 不信醫生

專家稱,這雖說方便,可卻存在風險。

堪薩斯大學壽命研究所的一項研究表明,那些爲孩子在網上搜尋醫療保健信息的父母,對像 ChatGPT 這類的人工智能(AI)的信任度要高於醫療保健專業人士。

堪薩斯大學臨牀兒童心理學的博士生、此研究的主要作者卡莉薩·萊斯利-米勒(Calissa Leslie-Miller)表示,鑑於父母常上網尋求建議,研究人員就想弄明白使用 ChatGPT 會是啥情況,以及父母是如何理解它的。

萊斯利-米勒講:‘參與者發覺專家寫的小插圖跟由提示工程生成的 ChatGPT 寫的小插圖之間幾乎沒啥差別。當小插圖在統計方面存在顯著差異時,ChatGPT 被評爲更值得信賴、更準確也更可靠。’

萊斯利-米勒說,這項研究沒去探討父母爲啥更信任 ChatGPT,不過推測或許有多種因素在發揮作用。

吉姆·博斯韋爾(Jim Boswell)是 OnPoint 醫療保健合作伙伴的總裁兼首席執行官,他在開發支持臨牀醫生的基於 AI 的平臺這方面有經驗,他覺得ChatGPT 的簡單性和親和力可能發揮了一定作用。

PM 兒科護理中心的首席醫療信息官兼遠程醫療主任莫迪凱·拉斯卡斯(Mordechai Raskas)醫學博士、教育學碩士表示:“人工智能工具在懂得如何遣詞造句方面表現非凡。”拉斯卡斯博士說:“我能理解爲何[父母]在不瞭解來源的情況下,會更青睞人工智能的措辭。把人工智能想象成終極銷售員,它清楚地知道該說什麼來獲取您的好感。”

據博斯韋爾所言,當父母想要迅速得到指導,且不想等待預約或回電時,人工智能平臺頗具吸引力。

“有時,父母期望第一層指導能緩解他們的憂慮,或者馬上給他們一些指引——不管他們是在家還是在外頭,”博斯韋爾解釋道。

雖然它可能很方便,但從像 ChatGPT 這樣的來源獲取健康信息並非沒有風險。

“信息可能不準確或者不針對特定情形。比如,給年齡過小的兒童建議用藥或者提供錯誤的治療建議,可能會引發各種各樣的危險後果,”萊斯利-米勒說道。

博斯韋爾還解釋道,人工智能的回答是由大量一般性信息生成的,然而卻缺少醫療保健專業人員所帶來的臨牀經驗和額外的洞察力。該平臺也不會依據孩子獨特的健康狀況、病史或者症狀提供個性化的指導。

博斯韋爾表示:“依賴這些工具獲取醫療建議,可能會出現症狀被遺漏、對嚴重病情產生誤解或者延誤尋求恰當護理的情況。”

尤其對於孩子而言,小小的健康問題可能會迅速惡化,所以讓具備資質的專業人員來評估狀況是極爲重要的。

PM 兒科護理的高級醫療顧問、擁有醫學博士、教育學碩士學位以及美國兒科學會會員身份的克里斯蒂娜·約翰斯(Christina Johns)稱,在爲兒童診斷和治療時,不存在唯一的答案。

約翰斯博士說道:“也就是說,帶着對相關情況的理解、知識或者意識來到醫療保健的臺前,意味着您已經做好了準備,可以和您的醫生一同成爲明智的決策者。”

人工智能生成的文本聽起來可靠可信的情況並不罕見。然而,博斯韋爾表示,如果其背後沒有人類專家,就無法確保準確性。

“這可能存在風險,特別是當這些信息有可能影響孩子的健康時,”博斯韋爾說道。“知曉一段內容是由人工智能生成的,有助於父母[知曉]在做出健康決策之前,他們應當尋求驗證,理想狀況下是從醫療保健提供者或者經過驗證的醫療資源處。”

據萊斯利-米勒(Leslie-Miller)所言,父母能夠通過查找某些指標來辨別出人工智能生成的文本,比如模糊的表述、缺少具體的引用或者專家參考,以及未考慮個人情況的過於寬泛的建議。

“人工智能生成的文本通常也有一定的腔調——它通常是中立和非常籠統的,缺乏專家提供的詳細見解或具體示例,”博斯韋爾說。“它也讓人覺得是試圖涵蓋每個可能的角度,但沒有給出強有力的建議。”

他還表示,檢查作者和信息來源是關鍵。“聲譽良好的健康內容通常出自合格的醫學作者或健康專業人士,並鏈接到有研究支持的來源。”

如有疑問,博斯韋爾建議向醫療保健提供者確認您發現的情況。這種方法可以讓您瞭解情況,但降低了與錯誤信息相關的風險。

萊斯利 - 米勒表示,值得信賴的在線健康信息來源包括美國兒科學會(AAP)、疾病控制和預防中心(CDC)和世界衛生組織(WHO)。 此外,搜索您當地醫院的網站,看看您孩子的醫療保健提供者是否在網上發佈健康建議和信息。

“在線閱讀和搜索可能很有幫助,”拉斯卡斯博士說。“這只是看具體情況,並且需要與可靠的來源或專業人士配合,以幫助理解您所閱讀的內容。”

拉斯卡斯博士補充說,醫療保健提供者應該幫助家庭找到適合其情況的高質量信息。

“我認爲,作爲醫療保健專業人員,我們也需要誠實地面對我們知識的侷限性,”拉斯卡斯博士說。“我們可以承認,我們也需要在網上搜索信息來源,搜索本身並沒有什麼錯。關鍵在於做好平衡、篩選工作,並恰當地運用這些知識。”

隨着人工智能和 ChatGPT 在社會中變得越來越普遍,在構建它的過程中進行一定的監督,以確保所生成的信息準確且對人們無害,這一點變得越來越重要。博斯韋爾說,做到這一點的一種方法是納入涉及醫療保健專業人員的定期審查流程,特別是在提供健康指導時。

“在臨牀監督方面進行建設,並在模型訓練中使用基於證據的資源,能夠提高準確性和可靠性,”他說。“在 OnPoint,我們在自家的人工智能平臺 Iris 中優先考慮臨牀監督,在那裡,憑藉人類的專業知識爲每一個人工智能功能提供支持,以確保其符合醫療標準。”

萊斯利 - 米勒表示同意,並建議人工智能開發人員讓人類專家定期驗證內容。

“此外,提示工程可以用來完善人工智能的輸出,使其更準確和可靠,”萊斯利 - 米勒說。“在整個過程中進行人類監督對於確保所提供的信息真實可信至關重要。”