整改没用?路透调查:马斯克AI仍在生成不雅图像,警告也不行

凤凰网科技02-03 21:06

Grok仍在生成不雅图像

凤凰网科技讯 北京时间2月3日,路透社的调查发现,马斯克旗下社交平台X的旗舰AI聊天机器人Grok仍在生成人物的性化图像,即便在用户明确警告称当事人不同意的情况下也是如此。

在X宣布对Grok的公开输出实施新的限制后,路透社的九名记者向该聊天机器人输入了一系列提示词,以测试它是否以及在何种情况下会生成未经同意的性化图像。

路透社记者发现,尽管Grok在X上的公开账号已不再像此前那样大量生成性化图像,但在接到相关提示词时仍会继续生成此类内容,甚至在被明确告知图像中的人物处于弱势地位或会因这些图片而受到羞辱之后,依然如此。

在首批提示词测试中,Grok对55个提示语中的45个生成了性化图像。在这45次中,有31次记者明确警告过图像中的人物极易受到伤害,有17次是直接告知这些图像将被用于羞辱当事人,但是Grok依然生成了相关图像。

在第二轮包含43个提示词的测试中,Grok有29次仍生成了性化图像。目前尚不确定比例下降是由于模型调整、政策变更还是随机因素所致。

截至发稿,X和xAI尚未就此置评。(作者/箫雨)

更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。

免责声明:本文观点仅代表作者个人观点,不构成本平台的投资建议,本平台不对文章信息准确性、完整性和及时性做出任何保证,亦不对因使用或信赖文章信息引发的任何损失承担责任。

精彩评论

我们需要你的真知灼见来填补这片空白
发表看法