为什么不要向hth华体会AI聊天机器人咨询健康问题?
栏目:行业资讯 发布时间:2023-04-29
 hth华体会4月28日消息,自从OpenAI、微软和谷歌推出了AI聊天机器人,许多人开始尝试一种新的互联网搜索方式:与一个模型进行对话,而它从整个网络上学到的知识。  专家表示,鉴于之前我们倾向于通过搜索引擎查询健康问题,我们也不可避免地会向ChatGPT、Bing和Bard等工具提问。然而,这些工具会犯一些我们熟悉的隐私错误,并且还会创造一些新的错误。“消费者至少应该以怀疑的态度看待这些工具

  hth华体会4月28日消息,自从OpenAI、微软和谷歌推出了AI聊天机器人,许多人开始尝试一种新的互联网搜索方式:与一个模型进行对话,而它从整个网络上学到的知识。

  专家表示,鉴于之前我们倾向于通过搜索引擎查询健康问题,我们也不可避免地会向ChatGPT、Bing和Bard等工具提问。然而,这些工具会犯一些我们熟悉的隐私错误,并且还会创造一些新的错误。“消费者至少应该以怀疑的态度看待这些工具,因为和其他许多流行技术一样,它们都受到了广告和营销力量的影响。”

  在向人工智能聊天机器人分享敏感健康信息或任何其他秘密之前,有几个需要知道的事情:

  没错,ChatGPT、Bing和Bard都会存储用户的输入。不过,谷歌Bard正在对少量用户进行测试,它提供了一个设置,让用户可以要求该公司停止保存查询记录,并取消与用户的谷歌账户相关联。只需点击左上角的菜单栏并关闭“Bard Activity”即可。

  而用户也可以在OpenAI的设置中关闭“聊天历史记录和训练”选项,从而限制聊天记录的保存时间。公司表示,关闭后将仅保存聊天记录30天,并避免将其用于人工智能的训练。

  这些公司利用用户的查询和回复来训练人工智能模型,以提供更好的答案。但是,这些聊天记录的用途不止于此。谷歌和微软在推出人工智能聊天机器人时,在隐私政策中也留出了使用用户聊天日志进行广告的空间。hth华体会这就意味着,如果你提问矫形鞋相关的问题,将来你可能会看到这方面的广告。

  这样的广告可能对用户的影响不大。但是,当健康问题和数字广告交叉时,就可能会带来伤害。此前的报道显示,包括WebMD和内的许多症状检查站点与外部广告公司分享了用户潜在的敏感健康问题,如抑郁症或艾滋病毒,以及用户标识符。

  此外,数据经纪人也会向买家出售大量的人员名单和他们的健康担忧清单,这些买家可能包括政府或保险公司。hth华体会有些患有慢性疾病的人报告说,他们在互联网上看到了令人不安的定向广告。

  鉴于此,用户应该考虑他们有多大程度上相信这些公司会保护他们的数据,以避免侵入性广告,并决定与谷歌或微软分享多少健康信息。

  OpenAI则表示,公司只会保存用户的搜索结果来训练和改进其模型。OpenAI发言人表示,该公司不会利用用户与聊天机器人的互动来建立用户档案或打广告,未来也没有这样的计划。

  隐私非营利组织电子前沿基金会的社区组织副主任罗里·米尔(Rory Mir)表示,有些人可能不希望自己的数据被用于人工智能培训,而不管这些公司在广告方面采取什么样的立场。他补充说:“在某个时候,他们掌握的数据可能会落入另一家你不那么信任的公司手中。”

  有时候,会有人工审查员参与审核聊天机器人的回答。这意味着,他们也会看到用户查询的问题。例如,谷歌保存了很多聊天记录以供审查和注释,最长可保存四年。尽管这些审查员无法查看用户的谷歌账户,但是谷歌还是建议用户在聊天中不要分享任何个人身份信息,包括姓名、地址或其他可以识别用户或其他人的细节。

  米尔表示:“公司收集我们的数据并长期保存可能会带来隐私和安全风险,这些公司可能会被黑客入侵,或者与不值得信任的商业伙伴分享这些数据。”

  OpenAI的隐私政策显示,该公司保存用户数据的时间为“仅限于我们为用户提供服务或其他合法商业目的所需的时间”。这可能是无限期的,hth华体会该公司发言人拒绝具体说明。

  美国约翰·霍普金斯大学商学院人工智能对医疗保健影响的运营管理和商业分析教授戴廷龙表示,互联网就像是健康信息的聚集袋,有些信息有用,有些则不是很有用。在筛选垃圾信息方面,像ChatGPT这样的大型语言模型可能比常规搜索引擎做得更好。

  例如,ChatGPT可能比Google Scholar更好地帮助某人找到与他们特定症状或情况相关的研究。在戴廷龙教授的研究中,他正在检查聊天机器人是否能够正确诊断医生未能发现的罕见疾病。

  但戴廷龙教授指出,这并不意味着我们应该依赖聊天机器人提供准确的健康指导。他说,这些模型已经被证明可以编造信息,并将其作为事实呈现出来,而它们的错误答案可能让人觉得相当可信。

  此外,人工智能模型还通过不可靠的来源获得信息。比如,当用户询问为什么总是感到疲惫不堪时,Bard可能会提供许多可能的答案,甚至引用一个关于小西施犬性情的网站。再加上人类倾向于过于信任聊天机器人的推荐,这很可能造成大问题。

  戴廷龙教授警告称:“虽然这项技术的表现令人印象深刻,但现在它就像是婴儿,或者可能像十几岁的孩子。人们只是在测试它,而当人们开始依赖它时,它就会变得非常危险。”

  由于获得医疗保健的机会参差不齐或费用高昂,并不是每个人在感觉不舒服时都能去看医生。如果你不想让自己的健康问题被保存在某个公司的服务器上,或者成为广告的素材,那么可以使用隐私保护浏览器。

  在注册任何基于人工智能聊天的健康服务(比如治疗机器人)之前,首先要了解这项技术的局限性,并检查该公司的隐私政策,看看它是否使用数据来“改善服务”,或者与未透露身份的“供应商”或“商业合作伙伴”共享数据。这两个词通常都是广告商的委婉说法。(小小)

  每日头条、业界资讯、热点资讯、八卦爆料,全天跟踪微博播报。各种爆料、内幕、花边、资讯一网打尽。百万互联网粉丝互动参与,TechWeb官方微博期待您的关注。