2025-01-22 22:18 來源:本站編輯
聊天機器人似乎是值得信賴的智能助手,但專家警告說,不要與人工智能代理過于個人化。
克利夫蘭診所最近的調(diào)查數(shù)據(jù)顯示,五分之一的美國人向人工智能尋求健康建議,而去年Tebra發(fā)布的調(diào)查統(tǒng)計數(shù)據(jù)發(fā)現(xiàn),大約25%的美國人更有可能在治療過程中使用聊天機器人。
然而,專家警告用戶不要與人工智能聊天機器人過度分享,尤其是在醫(yī)療信息方面。
據(jù)《今日美國》報道,人們應(yīng)該避免向人工智能泄露醫(yī)療和健康數(shù)據(jù),因為這不符合《健康保險流通與責(zé)任法案》(HIPAA)。
由于ChatGPT之類的聊天機器人不符合HIPAA標(biāo)準(zhǔn),因此不應(yīng)在臨床環(huán)境中使用它們來總結(jié)患者記錄,也不應(yīng)訪問敏感數(shù)據(jù)。
據(jù)《今日美國》報道,話雖如此,如果你想要一個快速的答案,一定要省略你的名字或其他可能被利用的身份信息。
該網(wǎng)站還警告說,不允許上傳露骨的內(nèi)容和非法建議,也不允許上傳他人的信息。
網(wǎng)絡(luò)安全公司卡巴斯基的斯坦·卡明斯基此前告訴《太陽報》:“記?。耗銓懡o聊天機器人的任何東西都可能被用來對付你。”
登錄憑證、財務(wù)信息、安全問題的答案以及你的姓名、電話和地址也不應(yīng)該與人工智能聊天機器人共享。這些敏感數(shù)據(jù)可能會被惡意行為者用來對付你
卡明斯基繼續(xù)說道:“任何密碼、護照或銀行卡號碼、地址、電話號碼、姓名或其他屬于你、你的公司或你的客戶的個人數(shù)據(jù)都不能與人工智能聊天?!?/p>
“您可以在請求中用星號或‘REDACTED ’替換這些。”
公司的機密信息也是一種嚴重的隱私失禮,
卡明斯基說:“人們可能很想上傳一份工作文件,比如得到一份執(zhí)行摘要?!?/p>
“然而,如果你不小心上傳了一份多頁的文件,你就有可能泄露機密數(shù)據(jù)、知識產(chǎn)權(quán)或商業(yè)秘密,比如新產(chǎn)品的發(fā)布日期或整個團隊的工資?!?/p>