Desde que existe Google, la “autoridad” es un elemento crucial de su éxito. Gracias a algoritmos cada vez más sofisticados, Google -o cualquier otro buscador- analiza una vasta cantidad de contenidos de todo tipo y determina su relevancia. Los famosos 10 resultados de búsqueda son el resultado de esta curaduría, que, con menor o mayor eficiencia, viene contestando nuestras preguntas hace más de veinte años.
Empresas de todo el mundo invierten millones de dólares en la generación de contenido de autoridad para ganarse un lugar entre esos 10 resultados. Pero, ¿qué va a pasar con esa enorme industria ahora que tantas empresas están redactando su contenido con herramientas de IA? ¿Cómo va a hacer Google para determinar la autoridad de estos contenidos?
Hasta hace poco, producir contenido de calidad implicaba horas de investigación, escritura y reescritura, años de experiencia en un tópico en particular y a veces también equipos de diseño que tradujeran esos contenidos para múltiples plataformas. Hoy muchos de esos procesos se pueden llevar a cabo con herramientas de IA en cuestión de minutos, no días. Pero, ¿es lo mismo? ¿Se puede reemplazar todo el contenido que generan las personas por contenido producido con IA? ¿Y qué consecuencias tendría esto sobre la circulación de información y conocimiento en internet?
La experiencia de la IA
La calidad y la precisión de los textos producidos con IA nos puede resultar impresionante en muchas ocasiones, pero, ¿tiene la misma autoridad que un texto producido por una persona experta? Por el momento las herramientas de IA todavía cometen muchos errores factuales y no podemos confiar al 100% en el contenido que arrojan, que debe ser supervisado. Pero estas herramientas están en continua evolución: todos los días, millones de personas utilizan Chat GTP para hacer todo tipo de consultas y ayudan de esa manera a entrenar y mejorar la herramienta.
Por otro lado, la emergencia de estas herramientas que potencialmente podrían tener conocimiento ilimitado sobre innumerables temáticas nos hace replantearnos qué significa ser experto en algo. ¿Se trata de tener un título de grado? ¿De haber leído mucho al respecto? La IA puede hacer de cuenta que estudió biología molecular, pero ¿eso es lo mismo que haber estudiado biología molecular? Sabemos que la IA puede digerir textos y aprender de esos patrones, al igual que nosotros, pero ¿puede replicar todos los procesos que entran en juego en el aprendizaje de una persona humana? Podemos pensar que la interacción con usuarios constituye una experiencia de la que la IA también puede aprender y que a lo largo del tiempo le puede otorgar más autoridad sobre un tópico determinado.
No tenemos que confundir la autoridad con objetividad: dos personas expertas en virología podrían sostener posturas distintas sobre los efectos a largo plazo de las vacunas, por ejemplo. Por eso, entendemos que tiene más sentido pensar la autoridad como un valor cualitativo que mide el recorrido o la trayectoria de alguien en una rama del conocimiento. Se trata de la perspectiva que puedan ofrecer en base a ese recorrido profesional. Andrew Glover, en un artículo de la revista Forbes, considera que las herramientas de IA: “carecen de la capacidad de hacer inferencias y comparaciones, proporcionar experiencias y anécdotas propias, o brindar una inmersión verdaderamente profunda y autorizada en un tópico”. Hoy no estamos en condiciones de otorgarle autoridad a la inteligencia artificial. Tendrá que ganársela con el tiempo, como el resto de nosotros.
Dos métricas para medir la autoridad
A continuación, detallamos dos conceptos clave para entender cómo Google se las ingeniará para determinar la autoridad de los contenidos en la era de la inteligencia artificial.
E-E-A-T
Las siglas E-E-A-T hacen referencia a Experience (Experiencia), Expertise (Pericia), Authoritativeness (Autoridad) y Trustworthiness (Confiabilidad). Se trata de un conjunto de pautas y criterios de evaluación que utiliza Google para medir la relevancia del contenido de los sitios y así poder rankearlos acorde. La primera E, que refiere a “Experiencia”, fue agregada a fines de 2022. Esta extra “E” tiene un mensaje muy claro: Google está diciendo que, frente al auge de los contenidos producidos con IA, va a poner aún más valor en la “experiencia” que pueda probar del autor o autora de ese contenido.
Estas pautas que están en constante evolución, también están teniendo que adaptarse para acomodar la nueva realidad digital. Solo en 2021 se implementaron más de 5,150 mejoras en los algoritmos de Google: “Estos cambios pueden ser grandes lanzamientos o pequeños ajustes, pero todos están diseñados para hacer que la Búsqueda funcione mejor para nuestros usuarios”, afirma Google. Entre estas pautas y criterios, resulta evidente que el contenido copiado, generado automáticamente o “creado sin esfuerzo, originalidad o talento” se califica como de “baja calidad”. Esto no significa que Google esté en contra del contenido generado con IA. De hecho, hay muchísimas experiencias donde Google está rankeando primero contenido creado con IA.
Como Google no “abre” su algoritmo ni se expide de manera directa sobre esto, no está del todo claro si puede detectar contenido generado con IA en todos los casos. De acuerdo a experimentos realizados por expertos y entusiastas del SEO, es bastante probable que lo detecte. Según escribe Sara Taher para Search Engine Land, los sitios que tras incorporar contenido generado con IA sufrieron una caída en posicionamiento no tenían una gran autoridad para empezar. Contrapone el caso de Bankrate, un sitio que sí contaba con cierta autoridad online y que, al incorporar contenido generado con IA, lo hizo con especial atención a generar “señales de confianza” para Google.
¿Cuáles serían estas señales? Según Taher, “un disclaimer de responsabilidad editorial claro sobre cómo y dónde se usa el contenido generado por IA y si este es editado por humanos”, “enlaces a fuentes y entidades autorizadas externas”, entre otras. Hay que aclarar que estas no son más que suposiciones sobre lo que podrían ser “prácticas recomendadas”: sabemos que a Google le gusta jugar al juego del gato y el ratón con los SEO y tenerlos siempre adivinando qué malabares hacer para figurar entre los primeros resultados.
Information Gain Score
Otra métrica importante a tener en cuenta es el Information Gain Score. Se trata de un índice que establece cuánta información nueva puede aportar una fuente a una persona que ha visto otras fuentes sobre el mismo tema. En un artículo de 2020, Bill Slawski ya predijo la importancia que iba a tener este concepto en el futuro. A medida que aparezca más contenido online redactado por IA, puede que Google se apoye en este índice para determinar que el contenido sea verdaderamente útil y no esté simplemente repitiendo lo que ya circula por la web. De esta manera, los artículos que aporten información novedosa tendrán una ventaja por sobre los contenidos que repitan o parafraseen contenido existente.
Como ya sabemos, la IA redacta los contenidos en base a la información con la que es alimentada. Esto quiere decir que, si cada vez más personas utilizan herramientas de IA para redactar contenidos sobre un tópico en particular, es posible que circule contenido muy similar. Para evitar que esto deteriore la calidad de los resultados de búsqueda, el algoritmo de Google comenzará a priorizar los artículos de autores que ofrezcan contenido más original: con una perspectiva propia, anécdotas y experiencias reales, nuevos estudios y fotografías inéditas, es decir, contenido que la inteligencia artificial no pueda producir porque todavía no forma parte de su base de datos.
A modo de conclusión
Como conclusión parcial podemos decir entonces que, en la era del contenido generado con IA, la autoridad y la experiencia siguen teniendo importancia, quizás más nunca, como se evidencia por esa extra “E” que se sumó a las siglas de E.E.A.T el año pasado. Seguramente Google redoble sus esfuerzos para detectar el contenido generado con IA: no solo para asegurarnos una experiencia de búsqueda de calidad, sino también por cuestiones de seguridad básicas, como en el caso de páginas con contenidos especialmente sensibles. A estas páginas Google las denomina YMYL (Your Money Your Life) porque la desinformación podría poner en riesgo la seguridad financiera o las vidas de las personas. Es decir, páginas de salud, finanzas, alimentación, economía, etc. Cualquier contenido en internet debería leerse con un ojo crítico: hasta Wikipedia puede fallar en datos clave por falta de supervisión. Pero en algunos casos esa desinformación puede ser muy peligrosa y ahí se vuelve necesario que las plataformas como Google intervengan. No sabemos hasta qué punto se logrará contener la proliferación de contenido barato facilitado por el uso indiscriminado de la IA. Por eso nuestra conclusión es parcial: solo el tiempo dirá.
- ¿Qué es SEO y para qué sirve? - diciembre 6, 2024
- Fake news y ética digital: nuestro compromiso con la verdad en la era de la desinformación en redes sociales - febrero 28, 2024
- ¿Qué es el marketing digital y para qué sirve? - enero 23, 2024
¿Qué te pareció este artículo?
What do you think about this post?