Content curators 109. IA general, Curar genera confianza, AI Overviews, Maldito algoritmo.
Content Curators es una newsletter de metacuración. Una mirada semanal a temas de Información y Comunicación Digital poniendo en valor el trabajo de l@s curador@s que me los han traído.
Intro
Hola, te doy la bienvenida a Content Curators #109.
Como siempre, empezamos con el tema con más clics de la pasada edición Content curators #108. Ha sido el tema La vida “figital” con el informe Mi realidad conectada de Inés Dinant, Antonio Fumero y Oscar Espiritusanto. Si te lo perdiste entonces, tienes ahora otra oportunidad.
Esta semana tienes 4 temas, ordenados por días de la semana y no por importancia: 1. No habrá IA general. 2. Curar genera confianza. 3. Por qué falla AI Overviews de Google. 4. Maldito algoritmo
¡Vamos allá!
Palabras clave Content curators #109: IA, Inteligencia Artificial, IAG, Inteligencia Artificial General, Jared Kaplan, leyes de Kaplan, alucinaciones, curación de contenidos, content curator, confianza, AI Overviews, Google, búsquedas, buscadores, fallos, errores, humor, preguntas sin sentido, algoritmos.
“La Frase”
“El problema de las IAs es que son sumamente ingenuas en su afán de responderlo todo”
Juan González Villa en Mentes Artificiales
1. No habrá IA general
Lunes 3 de junio
Leo en El País este artículo de Marta Peirano: No habrá inteligencia artificial general
Marta resume la investigación sobre IA de Jared Kaplan y aterriza para el público no experto por qué es importante su paper Leyes de Escalamiento para Modelos de Lenguaje Neurales.
Las leyes de Kaplan ayudan a entender tanto la carrera de avances en IA, como algunos de sus fallos que llaman más la atención: las denominadas “alucinaciones”.
Es la ley de escalamiento: cuando más grande y más datasets digiere, mejor “piensa” el modelo. Salvo por un detalle, que en aquel momento no parecía importante. Cuanto más sofisticado es el modelo, más sofisticadas son sus “alucinaciones” y, por lo tanto, más difíciles de detectar.
La ley de escalamiento de Kaplan también explica la vertiginosa carrera actual entre empresas por presentar avances continuos para llegar a la inteligencia artificial general (IAG) porque esta ley sugiere que
con acceso a más máquinas, más energía y más contenidos, los modelos se convertirán en agentes inteligentes con la capacidad de entender el mundo
Pero, aquí insiste Marta, en este planteamiento no se han tenido en cuenta (o al menos, no se dice), las alucinaciones: a más máquinas, más energía y más contenido… seguramente más alucinaciones.
Justamente la persistencia de estas alucinaciones es la prueba de que la IAG no sucederá, al menos pronto, o al menos con esta tecnología.
Los modelos viven encerrados en un mundo de palabras... No pueden mentir, alucinar o equivocarse porque todas las palabras son verdaderas cuando dejan de describir el mundo. No habrá IAG con esta tecnología. Cualquiera que diga lo contrario miente, o se ha dejado engañar.
Quizás sea ese el punto. Y por tanto no iremos tan rápido como desde algunos sitios se insinúa. O bien todo lo contrario, surgirá una nueva tecnología capaz de hacer realidad la IAG. No me atrevo a hacer apuestas.
2. Curar genera confianza
Martes 4 de junio
La nueva edición de TRUST-able de Robin Good está dedicada a la curación de contenidos, y más concretamente, en el contexto de una newsletter especializada en la construcción de confianza, a cómo curar contenido para generar confianza.
El punto de partida de Robin:
Mi tesis es que la curación de contenidos, a diferencia de simplemente escribir, informar noticias, compartir opiniones o contar historias, es una actividad que conduce a un aumento de la confianza por parte de los lectores, ya que las actividades, tareas, o responsabilidades que el curador necesita llevar a cabo para curar, son constructores naturales de confianza.
La confianza es vital para construir un negocio exitoso y saludable, porque las personas tienden a comprar y obtener servicios que les han sido recomendados o que conocen y confían en ellos personalmente
En un post extenso en su versión gratuita y aún más en la versión extendida de pago, me centraré en su primer apartado en el que profundiza en esta relación entre curación y confianza:
Dado que la curación requiere seleccionar, organizar y presentar contenido o información de manera que aporte valor para una audiencia/necesidad específica, el curador de contenido se posiciona automáticamente como un guía de confianza, creador de tendencias y evaluador imparcial.
Robin destaca 13 acciones o estrategias por las que curar construye confianza: te dejo aquí solo cinco, en traducción libre. Como siempre, te recomiendo que leas y disfrutes el original si te interesan estos temas:
Enfoque : Curar contenido en un área específica de manera consistente puede ayudar a construir una reputación como la persona o experto de referencia en el nicho elegido.
Amplitud : Reunir diferentes autores, ideas y conceptos para tratar un tema muestra que no estás allí solo para vender tus propias ideas. Muestra que curas para resaltar ideas, tendencias y perspectivas que dan mayor profundidad a aquellos interesados en ese campo.
Contexto : Explicar por qué el contenido curado es importante, cómo encaja en el panorama general y cuáles son sus puntos clave son fundamentales para construir confianza, ya que demuestran la comprensión del curador sobre el tema y su capacidad para guiar a otros en la comprensión de temas nuevos, difíciles o complejos.
Consistencia : Curar de manera consistente a lo largo del tiempo, mientras se mantienen altos estándares de calidad, comunica profesionalismo y fiabilidad, dos factores clave para construir confianza. La consistencia en proporcionar información fresca y relevante demuestra también una claridad de visión y un compromiso continuo.
Identificación de tendencias : Al curar contenido que identifica y analiza tendencias y desarrollos emergentes en un área específica, el curador se posiciona como una autoridad con visión de futuro.
Un must sobre curación este post de Robin.
3. Por qué falla AI Overviews de Google
Miércoles 5 de junio de 2024
La edición de hoy de Mentes artificiales de Juan González Villa ahonda en lo que ha pasado con las AI Overviews de Google y en qué punto estamos.
Por si no te suena, estamos hablando de los fallos que tuvo la nueva Inteligencia Artificial de Google en su estreno y durante sus primeros días (un resumen en Content curators #107: “La nueva búsqueda en Google”).
Empezando por lo esencial, quizás todo se pueda reducir a esta frase que he seleccionado como frase de la semana:
El problema de las IAs es que son sumamente ingenuas en su afán de responderlo todo
Vamos al detalle. En estos momentos, Google ha hecho ya su primer update a las AI Overviews, limitando bastante las búsquedas en las que aparece su nueva IA y ha dado su explicación oficial de lo que ha pasado en este post de Liz Reid, jefe de Google Search: AI Overviews: About last week.
Los errores se han dado porque sus sistemas no han sido capaces de identificar contenido satírico, o por problemas para detectar matices del lenguaje (ironía, sarcasmo y humor en general).
De entrada me viene a la mente que esto parece confirmar el dicho de que el humor (y sus variantes: ironía, sarcasmo…) es una de las cosas más inteligentes que tenemos los humanos, por lo que a estos nuevos sistemas (de momento, no tan inteligentes) les cuesta detectarlo.
Junto al humor, el otro contenido que, según Liz, la IA no sabe identificar y responder bien son las preguntas sin sentido, como, por ejemplo (hay que tener mala leche para hacer esta pregunta): "cuántas piedras debería comer".
Aquí Juan explica bien qué haría un buscador normal (sin IA) ante este tipo de preguntas estúpidas, y qué hizo AI Overviews:
Sin AI Overviews, normalmente recibirías resultados donde se habla de manera general de por qué no es bueno ingerir piedras o minerales. No había una respuesta específica a esa pregunta que nadie haría (lo que Google llama “vacío de información”); pero una respuesta general es suficientemente buena.
El problema de las IAs es que son sumamente ingenuas en su afán de responderlo todo. En este caso, la IA de Google se ha dejado engañar por la apariencia de autoridad de una web de software para geología que estaba reproduciendo una broma publicada previamente en un medio satírico.
Así, tenemos claro que ante el humor y las preguntas sin sentido, el sistema IA de Google ha sido pillado en falso.
Juan detalla también las nuevas medidas de Google para solucionar estos errores, que van desde limitar ahora en el buscador el contenido generado por el usuario (CGU) como el de foros, a establecer sistemas para detectar búsquedas sin sentido.
También me parece muy interesante el dato de que las AI Overviews ahora aparecen solo en el 3% de las búsquedas. Nada que ver con lo que se decía hace sólo 10 días.
Tras la tormenta llega la calma. Seguimos
4. Maldito algoritmo
Jueves 6 de junio de 2024
Mauricio Cabrera comenta en The Muffin StoryBaker el resultado de las elecciones en México en clave de comunicación digital, redes sociales y algoritmos, y lo que dice creo que puede ir bastante más allá del contexto político de México.
Mauricio, en un momento -es mi impresión- bastante inspirado, construye un set de frases sobre nuestra relación con los algoritmos con las que coincido bastante y que te comparto:
A los seres humanos no les gusta equivocarse.
Mucho menos ahora.
Cuando siempre es posible encontrar un grupo de personas que piensan como ellos.
Cuando siempre es posible encontrar contenido que fortalece nuestras ideas antes que el contenido que las confronta.
El algoritmo contribuye a que vivamos en nuestra burbuja.
No dice aquí nada nuevo, pero lo dice bien. Los algoritmos que triunfan en internet y las redes potencian todo eso, que ya estaba ahí. Se ve muy claro en política, claro, pero también en cualquier otro tema, especialmente si este genera controversia.
Y aquí acentúa bastante su posición:
Con el algoritmo convirtiéndonos en marionetas de nuestros propios gustos, es más probable que nos aferremos a lo que pensamos aunque podamos estar equivocados a que nos atrevamos a desafiar nuestros propios paradigmas.
Vivimos en la era de la gasolina intelectual.
El algoritmo le pone gasolina a nuestras convicciones para convertirlas en algo tan propio de nosotros que resultará cada vez más complejo reconocer que hemos cambiado de opinión.
Me ha encantado eso de que el algoritmo “le pone gasolina” a lo que ya pensamos. Iría como frase de la semana si no tuviera ya la otra, pero la verdad es que todo el post está plagado de frases inspiradas. Por ejemplo, esta otra:
El algoritmo y sus métricas nos han convertido en seres más pasionales que racionales
No hace falta que te diga, es obvio, que te recomiendo su lectura. Hay también, échale un vistazo, una reflexión sobre cómo todo esto afecta a los medios.
Este domingo tenemos elecciones en Europa, y no puedo menos que pensar: “Maldito algoritmo”…
Final
Muchas gracias por llegar hasta aquí. Si te ha gustado Content curators, compártela porfa en tus redes sociales, y/o dale un like o una recomendación. También puedes preguntarme lo que quieras.
Hasta el próximo domingo. Feliz final de semana.
Buenísima edición Javier, enhorabuena!
Sobre todo me ha llamado mucho la atención el tema las leyes de Kaplan, voy a tener que leer más sobre eso.
Saludos.
Muy bueno 😊, como siempre ☺️