谷歌的Martin Splitt被问及Googlebot的抓取和渲染如何适应人工智能生成内容的增加。马丁的回答让我们深入了解了谷歌如何处理人工智能生成的内容以及质量控制的作用。网页渲染是在浏览器中通过下载HTML,图像,CSS和JavaScript,然后将它们放在一起创建网页的过程。Google的爬虫,Googlebot,也下载HTML,图片,CSS和JavaScript文件来呈现网页。Martin的评论是在一个名为“与Google的Martin Splitt一起探索渲染艺术”的网络研讨会上发表的,该研讨会由Duda制作。一名观众问到,大量的人工智能内容是否会影响谷歌在抓取时渲染页面的能力。
马丁给出了一个解释,但他也补充了一些信息,关于谷歌如何在抓取时判断一个网页是否质量低下,以及谷歌在确定后会做什么。阿蒙·约翰斯问了这个问题,乌尔丽卡·维伯格读了这个问题。
问题是:
“那么,我们也有一个来自阿蒙的问题,这是一个经常被谈论的问题。
我经常看到。他们说,由于人工智能,内容生产增加了,增加了爬行和渲染的负载。渲染过程可能会被简化吗?Ammon显然想知道的是,是否有任何特殊的进程发生在响应AI内容,以处理增加的爬行和渲染负载。
Martin Splitt回答:“不,我不这么认为,因为我最好的猜测是……”
Martin接下来谈到了seo想知道的人工智能内容的明显问题,即检测它。Martin继续说:“所以我们在多个阶段进行质量检测或质量控制,大多数的****y内容并不一定需要JavaScript来告诉我们它是多么的****y。
所以,如果我们之前发现它是****y内容,那么我们跳过渲染,有什么意义呢?
如果我们看,好吧,这看起来像绝对的。我们可以非常确定这是垃圾,JavaScript可能会添加更多的垃圾,然后再见。
如果这是一个空页面,那么我们可能会说,我们不知道。
人们通常不会在这里放空页面,所以让我们至少尝试渲染一下。
然后,当渲染返回垃圾时,我们会说,好吧,好吧,这就是垃圾。
这已经发生了。这不是什么新鲜事。
人工智能可能会增加规模,但不会改变那么多。渲染不是这里的罪魁祸首。马丁·斯普利特(Martin Splitt)没有说谷歌正在对内容进行人工智能检测。他说Google在多个阶段使用了质量检测。这非常有趣,因为Search Engine Journal发表了一篇关于质量检测算法的文章,该算法也可以检测低质量的人工智能内容。该算法不是为了寻找低质量的机器生成内容而创建的。但他们发现,算法会自动发现它。
这个算法与谷歌宣布的关于他们的帮助内容系统的所有内容都是一致的,该系统旨在识别人们写的内容。
Danny Sullivan写过关于有用内容算法的文章:
“…我们正在推出一系列对搜索的改进,使人们更容易找到由人们制作和为人们制作的有用内容。”
他不止一次提到了人们写的内容。他在宣布“有用内容系统”的文章中提到了三次。
算法设计用于检测机器E生成的内容也可以检测一般的低质量内容。这篇研究论文的题目是,生成模型是页面质量的无监督预测器:一项大规模研究。在这篇论文中,研究人员观察到:“这篇论文假设,经过训练来区分人类和机器编写的文本的检测器是网页语言质量的有效预测者,比基线监督的垃圾邮件分类器表现得更好。
回到Martin Splitt所说的:
“……我们在多个阶段进行质量检测或质量控制……”
所以,这已经发生了。这不是什么新鲜事。
人工智能可能会增加规模,但不会改变那么多。
马丁似乎想说的是:
人工智能内容没有什么新应用,谷歌对人类和人工智能内容都使用质量检测