los sistemas de Google puede verificar la exactitud de su contenido; en cambio, depende de las señales que piensa la empresa se alinea con \”la relevancia del tema y la autoridad\”, según Danny Sullivan, de la búsqueda de Google de enlace, en un tweet publicado en su cuenta personal en el 9 de septiembre. Esto atrajo la atención de Seo y comenzó una conversación.
Máquinas no puede decir la \”exactitud\” de contenido. Nuestros sistemas se basan en lugar de las señales encontramos alinee con la relevancia del tema y la autoridad. Ver: https://t.co/O65v1PTehr y https://t.co/cTveD8XNxp
— Danny Sullivan (@dannysullivan)
no Es un concurso de popularidad. Cuando Bill Slawski, director de SEO de investigación para Ir a pescar Digital, citado de Google explicación de cómo los algoritmos de búsqueda de trabajo, la interpretación de las mismas a decir que la popularidad determina calificaciones de confianza para el contenido, Sullivan contestó, \”No. No es la popularidad.\” Luego, explicó que la popularidad sería demasiado simple de una señal y posiblemente no sea aplicable a nuevas consultas, que representan el 15% de Google diario de volumen de búsqueda.
En la búsqueda de más autoritaria resultados de la búsqueda: un poco de historia. En un intento de mejorar la calidad de sus resultados, Google anunció el Proyecto Búho en abril de 2017, el proyecto se puso más énfasis en autoritativa de contenido y los usuarios habilitados para proporcionar retroalimentación para autocompletar las sugerencias de búsqueda y contó fragmento de respuestas.
En noviembre de 2017, Google también se asoció con La Confianza de Proyecto para traer más transparencia al contenido de las noticias y de combate a la distribución de la desinformación. Uno de sus primeros pasos fue permitir que los editores de añadir hasta ocho \”indicadores de confianza\” para divulgar la información, tales como que los fondos de las agencias de noticias, la salida de la misión, el autor de la experiencia, el tipo de escritura y así sucesivamente, a través de marcado de datos estructurados.
En septiembre de 2019, la compañía actualizó su Búsqueda de la Calidad de Evaluador Directrices para enfatizar que los antecedentes fuentes de noticias así como YMYL contenido y sus creadores. También se amplió la base para que un evaluador puede aplicar las calificaciones más bajas a los contenidos que potencialmente pueden propagar el odio.
La reacción. Sparktoro fundador de Rand Fishkin no estaban de acuerdo con la base de Sullivan, la explicación, la lucha contra el que las máquinas pueden asignar niveles de exactitud del contenido, citando Google \”hecho extracciones que van desde la calculadora de respuestas a filmographies para información de viajes.\”
Judith Lewis, fundador de DeCabbit Consultoría, destacó la complejidad de la cuestión, añadiendo que el aprendizaje de máquina que hace \”habilitar un grado de evaluación de la exactitud de cualquier cosa no relacionada con la experiencia personal.\” Lewis también sugirió que Sullivan respuesta puede ser destinado a dar a Google un poco de margen de maniobra en el asunto.
Jenny Halasz, presidente de JLH de Marketing, se hizo eco de un sentimiento que puede ser compartida por muchos SEOs cuando ella twitteó, \”SÍ, mil veces SÍ! Gracias @dannysullivan. Este es un mito que no va a morir.\” Halasz también señaló la ironía de que el propio Google ofrece resultados de búsqueda con contenido alegando que la precisión es un factor de clasificación.
¿por Qué debemos cuidar. Contenido de la precisión es importante para los usuarios, pero, como Sullivan explicó, no es un factor de ranking de Google. Tema de relevancia y autoridad — que no debe confundirse con la popularidad, la cual puede ser resultado de los dos — son las señales de los sistemas de Google se basan en el rango de contenido.
This content was originally published here.