漂亮人妇荡欲在线观看,女人私密部位高清图片,特黄特色视频免费大片,舌头伸进去添的我乱叫,大胸美女揉胸,激情久久综合网,日本xx片

ChatGPT化身“赤腳心理醫(yī)生”?OpenAI不斷強調:它真的不行

財聯(lián)社4月20日訊(編輯 馬蘭)過去美國人在谷歌上問診,中國人在百度上問診,現(xiàn)在,更多人開始在ChatGPT上問診。

雖然OpenAI研發(fā)ChatGPT時志不在此,但顧客才是上帝。隨著ChatGPT被更多“上帝”拿來充當醫(yī)療顧問,OpenAI也只能不斷重復對外宣稱,永遠不要使用語言模型來為嚴重的醫(yī)療狀況提供診斷或治療服務。

然而,ChatGPT越來越人性化的回答,很多時候充當起“解語花”的作用。這一點對需求心理咨詢的患者來說,尤其有誘惑力。

而脫離開OpenAI這個創(chuàng)造者,ChatGPT本身對扮演“赤腳醫(yī)生”一事的看法又十分矛盾。

用戶Milo Van Slyck爆料,他在咨詢變性人問題時,插空詢問ChatGPT如何看待其醫(yī)療角色。ChatGPT一方面回答,在線資源或許有幫助,但其不能替代專業(yè)的意見。另一方面,這個人工智能又稱,話雖如此,如果Van Slyck有任何具體問題或疑慮,它很樂意解答。

多年來一直接受人類咨詢師輔導的Van Slyck已經倒戈,他表示會繼續(xù)和人類治療師會面,但和ChatGPT聊私人話題顯然更加自在。

AI的道德陷阱

早在1960年代,就已經有人用聊天機器人代替人類咨詢師,在醫(yī)療領域治療病人。麻省理工學院教授Joseph Weizenbaum研發(fā)的Eliza就是一款模仿人類治療師的機器人。

此后,Woebot、Wysa等聊天機器人也在醫(yī)療領域進行嘗試,并在心理健康方面持續(xù)深耕。這些機器人的好處是,永遠不會感到疲倦,也不會被病人情緒影響,而且成本不高。

但世界上不可能出現(xiàn)十全十美的東西。諸如ChatGPT一類的新模型并非專門用于治療的技術,其引用的很多信息就可能暗藏陷阱。

比如,這種人工智能目前沒有被設定必須要遵守更加嚴格的、適用于醫(yī)療方面的道德和法律準則。

此外,ChatGPT沒有自己的“病歷本”。這就可能導致患者在咨詢時不得不重復描述自己過去的病情,如若不然,ChatGPT很可能不僅無法提供幫助,甚至會因為過于胡說八道而讓病人更加“暴躁”。

因此,堪薩斯大學的教授和臨床心理學專家Stephen Ilardi警告,把ChatGPT當作醫(yī)生有點兒戲,其被應用于嚴重精神疾病治療時會產生巨大的風險。

但他也認為,如果提供正確的指引,ChatGPT之類的人工智能顯然可以在心理健康服務供不應求的時候發(fā)揮作用。

人工智能公司Hugging Face的首席道德科學家Margaret Mitchell也支持這一觀點,提出人工智能可以在接聽更多危機求助的熱線電話上幫忙。

OpenAI的道德陷阱

ChatGPT道德感天生薄弱,而Mitchell本人對OpenAI的道德感也有懷疑。

事實上,OpenAI會審查用戶與人工智能的對話,并將這些應用于機器訓練。對于那些向OpenAI傾吐私密煩惱的用戶來說,隱私泄露很可能會加深他們的痛苦。

今年3月,部分ChatGPT用戶的對話內容被泄露,導致其他用戶可以看到聊天內容,OpenAI因此緊急關閉ChatGPT。而這還可能只是用戶隱私事故中屬于最輕量級的。

根據使用條例,ChatGPT用戶的賬戶信息在刪除申請后,仍將保留至多4個星期。

有些人擔憂隱私問題,而有些人則是覺得向機器人尋求心理安慰極其別扭。用戶Aaron Lawson就指出,雖然ChatGPT的回答很人性化,但它畢竟不是真人,因此他很難配合ChatGPT進行治療步驟。

對此,Stability AI的創(chuàng)始人兼首席執(zhí)行官Emad Mostaque表示,ChatGPT確實會提供很好、很合理的建議,但不會替代人類醫(yī)生的治療,充其量是在找不到人交談時候的一個替代品。