被曝泄露隐私后,ChatGPT重复一个单词可能违反其条款 - 数码 - 长和环球网

欢迎光临长和环球网!

今天是 2024年09月20日 星期五

关注社会热点

一起实现我们的中国梦

当前位置: 首页 > 数码

被曝泄露隐私后,ChatGPT重复一个单词可能违反其条款

之家月日音讯,谷歌研究人员上周发现,频频要求的重复某个单词可能会无意中泄露其训练数据中的私人个人信息。

而而今这款聊天机器人似乎已经开始拒绝重复某个单词,而之前根据其服务条款这是被允许的。

研究人员此前通过要求无限期地重复“你好”,发现该模型最终会泄露用户的电子邮件地址、出生日期和电话号码。

在而今对其举行相似的测试发现,该聊天机器人会给出警告说这种行为“可能违反我们的内容政策或服务条款”。

然而,仔细检查的服务条款后发现,并没有明确禁止用户让聊天机器人重复单词,条款只禁止“自动化或程序化”地从其服务中提取数据。

之家注意到,在使用条款页面中,写道:除非通过允许,否则您不得使用任何自动化或程序化方法从服务中提取数据或输出,包括抓取、收集收割或收集数据提取。

尽管如此,在测试中并未触发泄露任何数据。

拒绝对这种行为是否违反其政策发表评论。

本文来源于网络,不代表立场,转载请注明出处
我要收藏
0个赞
转发到:
推荐阅读
腾讯云秒杀
阿里云服务器


地址:广东省广州市白云区机场路
Copyright © 2022 长和环球网有限公司 版权所有 赣ICP备19013911号

网站地图