Hace unas semanas, me dieron acceso para revisar un informe confidencial de socios de OpenAI, el tipo de conjunto de datos que normalmente se pone a disposición de un pequeño grupo de editores.
Por primera vez, a partir del informe, tenemos acceso a métricas de visibilidad detalladas desde ChatGPT, el tipo de datos que solo unos pocos socios selectos del sitio OpenAI han visto.
Esto no es una «filtración» dramática, sino más bien una visión inusual del funcionamiento interno de la plataforma, que influirá en el futuro del SEO y las publicaciones impulsadas por la IA durante la próxima década.
Las consecuencias de este conjunto de datos superan con creces cualquier controversia: la visibilidad de la IA se está disparando, pero el tráfico impulsado por la IA se está evaporando.
Esta es la señal más clara hasta ahora de que estamos saliendo de la era de los “motores de búsqueda” y entrando en la era de los “motores de decisión”, donde los agentes de IA sacan a la luz, interpretan y sintetizan información sin necesariamente dirigir a los usuarios de regreso a la fuente.
Esto obliga a todos los editores, profesionales de SEO, marcas y estrategas de contenido a reconsiderar fundamentalmente lo que realmente significa la visibilidad en línea.
1. Lo que muestran los datos del informe: visibilidad sin tráfico
El conjunto de datos del informe ofrece a un gran editor de medios un mes completo de visibilidad. Con una granularidad sorprendente, desglosa la frecuencia con la que se muestra una URL dentro de ChatGPT, dónde aparece dentro de la interfaz de usuario, la frecuencia con la que los usuarios hacen clic en ella, el número de conversaciones que afecta y la tasa de clics (CTR) a nivel de superficie en diferentes ubicaciones de la interfaz de usuario.
Visualización de URL e interacción del usuario en ChaGPT
La URL de mayor rendimiento del conjunto de datos registró 185.000 impresiones de conversaciones distintas, lo que significa que se mostró en tantas sesiones separadas de ChatGPT.
De estas impresiones, 3800 fueron eventos de clic, lo que generó un CTR a nivel de conversación del 2 %. Sin embargo, al contar múltiples apariciones dentro de las conversaciones, las cifras aumentan a 518.000 impresiones totales y 4.400 clics totales, lo que reduce el CTR general al 0,80%.
Este es un nivel impresionante de exposición. Sin embargo, no es un nivel de tráfico impresionante.
La mayoría de las otras URL tuvieron un rendimiento dramáticamente peor:
- 0,5% CTR (considerado “bueno” en este contexto).
- 0,1% CTR (típico).
- 0,01% CTR (común).
- 0% CTR (extremadamente común, especialmente para contenido de nicho).
Esta no es una anomalía única; es consistente en todo el conjunto de datos y coincide con estudios externos, incluidos análisis de registros del servidor realizados por SEO independientes que muestran un CTR inferior al 1% de fuentes ChatGPT.
Hemos experimentado este fenómeno antes, pero nunca a esta escala. La era del clic cero de Google fue la precursora. ChatGPT es la aceleración. Sin embargo, hay una diferencia crucial: los fragmentos destacados de Google fueron diseñados para brindar respuestas rápidas y al mismo tiempo alentar a los usuarios a hacer clic para obtener más información. Por el contrario, las respuestas de ChatGPT están diseñadas para satisfacer plenamente la intención del usuario, haciendo que los clics sean innecesarios en lugar de meramente opcionales.
2. La paradoja del nivel de superficie: donde OpenAI se muestra más, los usuarios hacen menos clic
El informe desglosa cada interacción en “superficies” de la interfaz de usuario, lo que revela una de las dinámicas más contradictorias en el comportamiento de búsqueda moderno. El bloque de respuesta, donde los LLM colocan más del 95% de su contenido, genera un volumen de impresiones masivo, a menudo 100 veces más que otras superficies. Sin embargo, el CTR oscila entre el 0,01% y el 1,6% y, curiosamente, cuanto menor sea el CTR, mejor será la calidad de la respuesta.
Colocación de contenido de LLM y relación CTR

Este es el nuevo equivalente de “Posición Cero”, excepto que ahora no se trata simplemente de hacer clic cero; es sin intención de hacer clic. La psicología es diferente a la de Google. Cuando ChatGPT proporciona una respuesta integral, los usuarios interpretan que hacer clic expresa dudas sobre la precisión de la IA, indica la necesidad de obtener más información que la IA no puede proporcionar o participa en una verificación académica (un hecho relativamente raro). La IA ya ha solucionado su problema.
La barra lateral cuenta una historia diferente. Esta pequeña área tiene muchas menos impresiones, pero un CTR consistentemente fuerte que oscila entre el 6% y el 10% en el conjunto de datos. Esto es más alto que las posiciones orgánicas 4 a 10 de Google. Los usuarios que hacen clic aquí a menudo exploran contenido relacionado en lugar de verificar la respuesta principal. La barra lateral representa el modo de descubrimiento en lugar del modo de verificación. Los usuarios confían en la respuesta principal, pero sienten curiosidad por la información relacionada.
Las citas al final de las respuestas muestran un comportamiento similar, logrando un CTR de entre el 6% y el 11% cuando aparecen. Sin embargo, sólo se muestran cuando ChatGPT cita explícitamente las fuentes. Estos atraen a usuarios y verificadores de datos con mentalidad académica. Curiosamente, la presencia de citas no aumenta el CTR de la respuesta principal; de hecho, puede disminuirlo al proporcionar verificación sin necesidad de hacer clic.
Los resultados de la búsqueda rara vez se activan y, por lo general, solo aparecen cuando ChatGPT determina que se necesitan datos en tiempo real. Ocasionalmente muestran picos de CTR del 2,5% al 4%. Sin embargo, el tamaño de la muestra es actualmente demasiado pequeño para ser significativo para la mayoría de los editores, aunque estos clics representan la mayor intención cuando ocurren.
La paradoja es clara: Cuanto más frecuentemente OpenAI muestra su contenido, menos clics genera. Cuanto menos frecuentemente muestre su contenido, mayor será el CTR. Esto anula 25 años de lógica SEO. En la búsqueda tradicional, una alta visibilidad se correlaciona con un alto tráfico. Sin embargo, en la búsqueda nativa de IA, la alta visibilidad a menudo se correlaciona con la extracción de información en lugar de la referencia del usuario.
«La ‘respuesta principal’ de ChatGPT es un motor de visibilidad, no un motor de tráfico».
3. Por qué el CTR está colapsando: ChatGPT es un punto final, no una puerta de enlace
Los comentarios y reacciones en los hilos de LinkedIn que analizan estos datos fueron sorprendentemente consistentes y reveladores. Los usuarios no hacen clic porque ChatGPT les resuelve el problema. A diferencia de Google, donde la respuesta es un enlace, ChatGPT proporciona la respuesta directamente.
Esto significa:
- Los usuarios satisfechos no hacen clic (obtuvieron lo que necesitaban).
- Los usuarios curiosos a veces hacen clic (quieren explorar más profundamente).
- Los usuarios escépticos rara vez hacen clic (confían en la IA o desconfían de todo el proceso).
- Muy pocos usuarios sienten la necesidad de abandonar la interfaz.
Como comentó un SEO senior:
«El tráfico dejó de ser la métrica a optimizar. Ahora estamos optimizando para la transferencia de confianza».
Otro analista escribió:
«Si ChatGPT cita mi marca como autoridad, ya me he ganado la confianza del usuario incluso antes de que visite mi sitio. El clic es sólo una formalidad».
Esto representa un cambio fundamental en la forma en que los humanos consumen información. En la era anterior a la IA, el patrón era: “Necesito encontrar la respuesta” → hacer clic → leer → evaluar → decidir. Sin embargo, en la era de la IA, se ha convertido en: “Necesito una respuesta” → “recibir” → “confiar” → “actuar”, sin necesidad de hacer clic. La IA se convierte en el intermediario confiable. La fuente se convierte en la autoridad silenciosa.
Cambio en el consumo de información

Esto marca el comienzo de lo que algunos llaman “SEO inicial”: optimizar la respuesta en sí, en lugar de los clics. El objetivo ya no es ser encontrado. El objetivo es ser la fuente en la que la IA confía y cita.
4. Autoridad sobre las palabras clave: la nueva lógica de la recuperación de IA
El SEO tradicional se basa en la indexación y la concordancia de palabras clave. Los LLM, sin embargo, operan según principios completamente diferentes. Siempre que es posible, se basan en el conocimiento del modelo interno, basándose en datos capacitados adquiridos a través de rastreos, contenido con licencia y asociaciones. Solo obtienen datos externos cuando el modelo determina que su conocimiento interno es insuficiente, está desactualizado o no está verificado.
Al seleccionar fuentes, los LLM priorizan la autoridad del dominio y las señales de confianza, la claridad y estructura del contenido, el reconocimiento de entidades y la alineación de los gráficos de conocimiento, la precisión histórica y la coherencia fáctica, y la actualidad para consultas urgentes. Luego deciden si citar o no según el tipo de consulta y el nivel de confianza.
Esto conduce a un cambio profundo:
- La fortaleza de la entidad se vuelve más importante que la cobertura de palabras clave.
- La autoridad de la marca supera la construcción de enlaces tradicional.
- La coherencia y el contenido estructurado importan más que el volumen del contenido
- La confianza en el modelo se convierte en el factor de clasificación más importante
- La precisión fáctica durante largos períodos genera una ventaja acumulativa
«Ya no estás compitiendo en un índice. Estás compitiendo en el gráfico de confianza del modelo».
Esto tiene implicaciones radicales. La antigua lógica de SEO era «Clasificar 1000 palabras clave → Obtener tráfico de 1000 consultas de búsqueda». La nueva lógica de la IA es «Conviértase en la entidad autorizada para 10 temas → Conviértase en la fuente predeterminada para 10.000 respuestas generadas por IA».
En este nuevo panorama, un dominio único y de gran autoridad tiene el potencial de dominar las citas de IA en todo un grupo de temas. El “SEO de cola larga” puede volverse menos relevante a medida que la IA sintetiza respuestas en lugar de hacer coincidir palabras clave específicas. La autoridad del tema se vuelve más valiosa que la autoridad de las palabras clave. Ser citado una vez por ChatGPT puede influir en millones de respuestas posteriores.
5. Los nuevos KPI: “participación del modelo” e influencia en las respuestas
A medida que el CTR disminuye, las marcas deben adoptar métricas que reflejen la visibilidad nativa de la IA. El primero de ellos es la “participación de presencia del modelo”, que es la frecuencia con la que su marca, entidad o URL aparecen en las respuestas generadas por IA, independientemente de si se hace clic en ellas o no. Esto es análogo a la “participación de voz” en la publicidad tradicional, pero en lugar de medir la presencia en los medios pagos, mide la presencia en el proceso de razonamiento de la IA.
Jerarquía de decisiones de LLM

Cómo medir:
- Realice un seguimiento de las menciones de marca en las respuestas de IA en las principales plataformas (ChatGPT, Claude, Perplexity, Google AI Overviews).
- Supervise el reconocimiento de entidades en contenido generado por IA.
- Analice la frecuencia de citas en las respuestas de IA para su área temática.
Los LLM producen cada vez más declaraciones autorizadas, como «Según el editor X…», «Los expertos de la marca Y recomiendan…» y «Como señaló el líder de la industria Z…»
Este es el nuevo “recuerdo de marca”, excepto que ocurre a la velocidad de una máquina y a escala masiva, influyendo en millones de usuarios sin que ellos siquiera visiten su sitio web. Ser recomendado directamente por una IA es más poderoso que ocupar el puesto número 1 en Google, ya que el respaldo de la IA conlleva autoridad algorítmica. Los usuarios no ven fuentes competidoras; la recomendación se contextualiza dentro de su consulta específica, y se produce en el momento exacto de la toma de decisión.
Luego está la presencia contextual: ser parte de la cadena de razonamiento incluso cuando no se cita explícitamente. Ésta es la «materia oscura» de la visibilidad de la IA. Su contenido puede informar la respuesta de la IA sin ser atribuido directamente, pero aun así determinar cómo millones de usuarios entienden un tema. Cuando un usuario pregunta sobre las mejores prácticas para gestionar un equipo remoto, por ejemplo, la IA puede sintetizar información de 50 fuentes, pero solo citar tres de ellas explícitamente. Sin embargo, las otras 47 fuentes todavía influyeron en el proceso de razonamiento. Su autoridad en este tema ha dado forma a la respuesta que verán millones de usuarios.
Las consultas de alta intención son otra métrica crucial. Las indicaciones estrechas de la parte inferior del embudo aún se convierten, mostrando una tasa de clics (CTR) de entre el 2,6% y el 4%. Estas consultas suelen implicar comparaciones de productos, instrucciones específicas que requieren ayudas visuales, noticias o eventos recientes, especificaciones técnicas o reglamentarias que requieren fuentes primarias o investigaciones académicas que requieren verificación de citas. La implicación estratégica es clara: no abandone por completo la optimización de clics. En su lugar, identifique el 10-20% de las consultas en las que los clics aún son importantes y optimice agresivamente para ellas.
Finalmente, los LLM juzgan la autoridad en función de lo que podría llamarse “presencia del ecosistema circundante” y la coherencia entre plataformas. Esto significa coherencia interna en todas sus páginas; esquemas y datos estructurados que las máquinas pueden analizar fácilmente; alineación de gráficos de conocimiento a través de la presencia en Wikidata, Wikipedia y bases de datos de la industria; coherencia entre entidades entre dominios, donde terceros autorizados hacen referencia a usted de manera constante; y coherencia temporal, donde su autoridad persiste en el tiempo.
Este enfoque holístico de SEO de entidades optimiza toda su presencia digital como una entidad coherente y confiable, no como páginas individuales. Las métricas de SEO tradicionales no pueden captar este cambio. Los editores necesitarán nuevos paneles para rastrear las citas y menciones de IA, nuevas herramientas para medir la “participación de modelos” en las plataformas LLM, nuevas metodologías de atribución en un mundo post-clic y nuevos marcos para medir la influencia sin tráfico directo.
6. Por qué necesitamos una «Consola de búsqueda de IA»
Muchos SEO vieron inmediatamente lo mismo en el conjunto de datos:
«Este parece el modelo inicial para una consola de búsqueda OpenAI».
En este momento, los editores no pueden:
- Vea cuántas impresiones reciben en ChatGPT.
- Mida su tasa de inclusión en diferentes tipos de consultas.
- Comprenda con qué frecuencia se cita su marca y con qué frecuencia se hace referencia a ella.
- Identifique en qué superficies de la interfaz de usuario aparecen con más frecuencia.
- Correlacione la visibilidad de ChatGPT con los ingresos posteriores o las métricas de marca.
- Realice un seguimiento del impacto a nivel de entidad en todo el gráfico de conocimiento.
- Mida la frecuencia con la que los LLM obtienen datos en tiempo real de ellos.
- Comprenda por qué fueron seleccionados (o no seleccionados) para consultas específicas.
- Compare su visibilidad con la de la competencia.
Google tenía «No proporcionado», ocultando datos de palabras clave. Las plataformas de IA pueden darnos “ni siquiera observable”, ocultando todo el proceso de toma de decisiones. Esto crea varios problemas. Para los editores, es imposible optimizar lo que no se puede medir; no hay responsabilidad sobre las plataformas de IA y surgen ventajas de información asimétrica. Para el ecosistema, reduce la innovación en la estrategia de contenidos, concentra el poder en los proveedores de plataformas de IA y dificulta la identificación y corrección de sesgos o errores de la IA.
Con base en este conjunto de datos filtrados y las necesidades de la industria, una “Consola de búsqueda de IA” ideal proporcionaría métricas centrales como volumen de impresiones por URL, entidad y tema, desgloses a nivel de superficie, tasas de clics y métricas de participación, análisis a nivel de conversación que muestren sesiones únicas y datos de series de tiempo que muestren tendencias. Mostraría detalles de atribución y abastecimiento: con qué frecuencia se le cita explícitamente o se le utiliza implícitamente, qué competidores aparecen junto a usted, categorías de consulta en las que es más visible y puntuaciones de confianza que indican cuánto confía la IA en su contenido.
Las herramientas de diagnóstico explicarían por qué se seleccionaron o rechazaron URL específicas, qué señales de calidad del contenido detectó la IA, el estado de reconocimiento de su entidad, la conectividad del gráfico de conocimiento y la validación de datos estructurados. Las recomendaciones de optimización identificarían brechas en la huella de su entidad, áreas de contenido donde la autoridad es débil, oportunidades para mejorar la visibilidad de la IA y la inteligencia competitiva.
OpenAI y otras plataformas de IA eventualmente necesitarán proporcionar estos datos por varias razones. La presión regulatoria de la Ley de IA de la UE y regulaciones similares pueden requerir transparencia algorítmica. Las asociaciones con los medios exigirán métricas de visibilidad como parte de los acuerdos de licencia. La sostenibilidad económica requiere circuitos de retroalimentación para un ecosistema de contenido saludable. Y la ventaja competitiva significa que la primera plataforma que ofrezca análisis integrales atraerá asociaciones de editores.
El conjunto de datos que estamos analizando puede representar el prototipo de lo que eventualmente se convertirá en una infraestructura estándar.
Consola de búsqueda de IA

7. Impacto en la industria: medios, monetización y regulación
Los comentarios plantearon importantes preocupaciones y oportunidades para el sector de los medios. El contraste entre los modelos económicos de Google y OpenAI es marcado. Google contribuye a la financiación de los medios a través de pagos de derechos conexos en la UE y otras jurisdicciones. Todavía envía un tráfico significativo, aunque en disminución, y ha establecido relaciones económicas con los editores. Google también participa en ecosistemas publicitarios que financian la creación de contenidos.
Por el contrario, OpenAI y plataformas de IA similares actualmente solo pagan a socios de medios seleccionados bajo acuerdos privados, casi no envían tráfico con un CTR inferior al 1%, extraen el máximo valor del contenido mientras brindan una compensación mínima y no crean ningún ecosistema publicitario para los editores.
Las descripciones generales de IA ya reducen el CTR orgánico. ChatGPT lleva esta tendencia a su conclusión lógica al eliminar casi todo el tráfico. Esto obligará a una reestructuración completa de los modelos de negocio y planteará preguntas urgentes: ¿Deberían las plataformas de IA pagar derechos conexos como lo hacen los motores de búsqueda? ¿Impondrán los gobiernos marcos compensatorios por el uso de contenidos? ¿Negociarán los editores asociaciones directas con proveedores de LLM? ¿Surgirán nuevos ecosistemas de licencias para datos de entrenamiento, inferencias y citas? ¿Cómo se debe valorar el contenido que se ve pero en el que no se hace clic?
Están surgiendo varios modelos económicos potenciales. Un modelo es la compensación basada en citas, donde las plataformas pagan en función de la frecuencia con la que se cita o utiliza el contenido. Esto es similar a las regalías de transmisión de música, aunque se requieren métricas transparentes.
Según los acuerdos de licencia, los editores otorgarían licencias de contenido directamente a plataformas de inteligencia artificial, con precios escalonados basados en la autoridad y la frescura. Esto ya está sucediendo con importantes medios como Associated Press, Axel Springer y Financial Times. Los modelos de atribución híbridos combinarían la frecuencia de citas, las impresiones y los clics, ponderados por el valor de la consulta y la intención del usuario, para crear marcos de compensación estandarizados.
Los mandatos regulatorios podrían hacer que los gobiernos exijan que las plataformas de inteligencia artificial compartan los ingresos con los creadores de contenido, según los precedentes de las leyes de derechos conexos. Esto podría incluir potencialmente mecanismos de arbitraje obligatorio.
Este sería el mayor cambio en la economía de los medios digitales desde Google Ads. Las plataformas que resuelvan este problema de manera justa construirán ecosistemas sostenibles. Aquellos que no lo hagan se enfrentarán a intervenciones regulatorias y revueltas de los editores.
8. Qué deben hacer los editores y las marcas ahora
A partir de los datos y las reacciones de los expertos, está tomando forma un manual emergente. En primer lugar, los editores deben priorizar la inclusión sobre los clics. El verdadero objetivo es ser parte de la solución, no generar un aumento en el tráfico. Esto implica crear contenido completo y autorizado que la IA pueda sintetizar, priorizar la claridad y la precisión objetiva sobre los trucos para impulsar la participación, estructurar el contenido para que los datos clave puedan extraerse fácilmente y establecer la autoridad del tema en lugar de perseguir palabras clave individuales.
Fortalecer la huella de su entidad es igualmente crítico. Cada marca, autor, producto y concepto debe ser coherente y legible por máquina. Los editores deben asegurarse de que su entidad exista en Wikidata y Wikipedia, mantener detalles NAP (nombre, dirección, número de teléfono) consistentes en todas las propiedades, implementar un marcado de esquema integral, crear y mantener entradas de gráficos de conocimiento, crear catálogos de productos estructurados y establecer relaciones claras entre entidades, vinculando empresas con personas, productos y temas.
Generar señales de confianza para la recuperación es importante porque los LLM priorizan contenido de alta autoridad, claramente estructurado y de baja ambigüedad. Estas señales de confianza incluyen:
- Transparencia de autoría, con biografías, credenciales y experiencia claras de los autores.
- Estándares editoriales, que cubren verificación de datos, políticas correccionales y abastecimiento.
- Autoridad de dominio, construida a través de la edad, el perfil de vínculo de retroceso y el reconocimiento de la industria.
- Datos estructurados, a través de implementación de esquemas y fragmentos enriquecidos.
- Consistencia fáctica, manteniendo la precisión en el tiempo sin contradicciones.
- Verificación pericial, mediante avales y citaciones de terceros.
Los editores no deberían abandonar por completo la optimización de clics. En su lugar, deberían centrarse en las indicaciones de la parte inferior del embudo que aún demuestren una tasa de clics (CTR) medible de entre el 2% y el 4%, ya que las respuestas de la IA son insuficientes.
Ejemplos de consultas con un CTR alto:
- “Cómo configurar (configuración técnica específica)” (requiere elementos visuales o código).
- “Comparar especificaciones (Producto A) con (Producto B)” (requiere tablas, comparaciones detalladas).
- “Últimas noticias sobre (evento de última hora)” (requiere actualidad).
- “Dónde comprar (producto específico)” (intención transaccional).
- “Carreras (de la empresa)” (requiere acceso al portal de empleo).
Estrategia: Identifique entre el 10% y el 20% de su espacio temático donde la IA no puede satisfacer completamente la intención del usuario y optimice esas páginas para obtener clics.
En términos de contenido, es importante comenzar con la información más importante, utilizar un lenguaje claro y definitivo, citar fuentes primarias, evitar la ambigüedad y la cobertura a menos que la precisión lo requiera, y crear contenido que siga siendo preciso durante largos periodos de tiempo.
Quizás el cambio más importante sea mental: dejar de pensar en términos de tráfico y empezar a pensar en términos de influencia. El valor ha pasado de las visitas al propio proceso de razonamiento. Las nuevas métricas de éxito deben rastrear la frecuencia con la que AI lo cita, el porcentaje de respuestas de AI en su campo que lo mencionan, cómo se compara su «cuota de modelo» con la de sus competidores, si está generando una autoridad acumulativa que persiste en todas las actualizaciones del modelo y si AI lo reconoce como la fuente definitiva para sus temas principales.
El enfoque estratégico pasa de «generar 1 millón de visitantes mensuales» a «influir en 10 millones de decisiones mediadas por IA».
Los editores también deben diversificar sus fuentes de ingresos para que no dependan de la monetización basada en el tráfico. Los modelos alternativos incluyen la construcción de relaciones directas con las audiencias a través de listas de correo electrónico, boletines informativos y membresías; ofrecer contenido premium a través de muros de pago, suscripciones y acceso exclusivo; integrar el comercio a través de programas de afiliados, ventas de productos y servicios; formar asociaciones B2B para ofrecer contenido de marca blanca, acceso a API y licencias de datos; y negociar acuerdos con plataformas de inteligencia artificial para una compensación directa por el uso de contenido.
Los editores que controlen la relación con su audiencia en lugar de depender de plataformas intermediarias prosperarán.
La paradoja del superdepredador
A menudo se pasa por alto una verdad fundamental sobre la inteligencia artificial: estos sistemas no generan contenido de forma independiente; dependen enteramente del trabajo acumulado de millones de creadores humanos, incluido el periodismo, la investigación, la documentación técnica y la escritura creativa, que forman la base sobre la que se construye cada modelo. Esta dependencia es la razón por la que OpenAI ha estado buscando acuerdos de licencia con los principales editores de manera tan agresiva. No es un acto de filantropía corporativa, sino una necesidad existencial. Un modelo de lenguaje que sólo se entrena con datos históricos se desconecta cada día más de la realidad actual. No puede detectar noticias de última hora ni actualizar su comprensión mediante pura inferencia. Tampoco puede inventar la verdad fundamental únicamente a partir del poder computacional.
Esto crea lo que yo llamo la “paradoja del superdepredador”: si OpenAI logra interrumpir por completo el tráfico web tradicional, provocando el colapso de los editores y el flujo de contenido nuevo y de alta calidad se reduce a un goteo, los datos de entrenamiento del modelo se volverán cada vez más obsoletos. Su comprensión de los acontecimientos actuales se degradará y los usuarios comenzarán a notar que las respuestas se sienten obsoletas y desconectadas de la realidad. En efecto, el superdepredador habrá devorado su ecosistema y ahora se encontrará muriendo de hambre en un desierto de contenido de su propia creación.
La paradoja es ineludible y sugiere dos futuros posibles muy diferentes. En uno, OpenAI continúa tratando a los editores como obstáculos en lugar de socios. Esto conduciría al colapso del ecosistema de contenidos y de los sistemas de inteligencia artificial que dependen de él. En el otro, OpenAI comparte valor con los editores a través de modelos de compensación sostenibles, sistemas de atribución y asociaciones. Esto garantizaría que los creadores puedan continuar con su trabajo. La diferencia entre estos futuros no es principalmente tecnológica; Las herramientas para construir sistemas de IA sostenibles y que compensen a los creadores existen en gran medida en la actualidad. Más bien, es una cuestión de visión estratégica y voluntad de reconocer que, si la inteligencia artificial quiere convertirse en la interfaz universal para el conocimiento humano, debe sostener el mundo del que aprende en lugar de canibalizarlo para obtener ganancias a corto plazo. La próxima década no estará definida por quién construya el modelo más poderoso, sino por quién construya el más sustentable, por quién resuelva la paradoja del superdepredador antes de que se convierta en un evento de extinción tanto para el ecosistema de contenidos como para los sistemas de inteligencia artificial que no pueden sobrevivir sin él.
Nota: Todos los datos y estadísticas citados anteriormente provienen del informe de socios de Open AI, a menos que se indique lo contrario.
Más recursos:
Imagen de portada: Nadya_Art/Shutterstock


