这并不是一个幻觉,但这是AI工具制成的另一个情况。 学分:郑Xin/Getty图像的照片插图
Google的AI概述有时就像一个失落的男人一样,他不会要求指示:它会自信地犯错,也不愿承认它不知道。
我们之所以知道这一点,是因为在线人们注意到您可以向Google询问任何人造成语 - 任何随机的,胡说八道的话,您可以化妆 - 而Google AI概述通常会规定其含义。这并不奇怪,因为AI对或者为了提供数据不足的答案。
对于化妆习惯的情况,看到Google的AI如何回应诸如“您不能舔两次”之类的愚蠢说法,这很有趣。在X上,SEO专家莉莉·雷(Lily Ray)被称为“ AI-Splaining”现象。
可混合的轻速速度
我也测试了“化妆成语”趋势。一个短语 - “不要给我自制的番茄酱,告诉我这是好东西” - 回答“ AI概述不适合此搜索”。但是,我的下一个构成的短语 - “你不能用旧熊握手”得到了回应。显然,Google的AI认为这句话表明“老熊”是一个不可信的人。
图片来源:屏幕截图:Google
在这种情况下,Google AI概述对制作东西的偏爱很有趣。在其他情况下 - 例如- 这可能是相对无害的。当它首次推出时,它告诉人们。 AI幻觉的其他例子不那么有趣。请记住,Google警告用户AI概述可能会弄错事实,尽管它仍然是许多搜索结果的顶部。
因此,随着旧的,悠久的成语的发展:用AI警惕搜索,您看到的可能是谎言。