TGW
Guatevision
DCA
Prensa Libre
Canal Antigua
La Hora
Sonora
Al Día
Emisoras Unidas
AGN

Por qué desconfío de la IA: el caso Grok
Twitter / X: @Javi_Urizar [email protected] La inteligencia artificial se ha vuelto la nueva moda tecnológica. Desde el lanzamiento de ChatGPT hace algunos años, empresas y gobiernos han emprendido una carrera por producir y dominar el campo de la inteligencia artificial (IA): Gemini, Copilot, MetaAI, Deepseek, y Perplexity son sólo algunos de los programas más […]
Enlace generado
Resumen Automático
Twitter / X: @Javi_Urizar
[email protected]
La inteligencia artificial se ha vuelto la nueva moda tecnológica. Desde el lanzamiento de ChatGPT hace algunos años, empresas y gobiernos han emprendido una carrera por producir y dominar el campo de la inteligencia artificial (IA): Gemini, Copilot, MetaAI, Deepseek, y Perplexity son sólo algunos de los programas más conocidos.
La razón es sencilla. Las IA han venido a cambiar el mundo – una pieza de tecnología no había sido tan revolucionaria desde la creación del internet. Ahora, con un par de instrucciones, un sencillo programa en línea puede crear imágenes o videos hiperrealistas, producir documentos e investigaciones detallados, programar código de computación sumamente complejo, componer música, y una infinidad de cosas más. Es tan sencillo y tan efectivo que es imposible escaparlo: en cuestión de meses se ha vuelto la herramienta principal de académicos, abogados, profesores, científicos, estudiantes, y de otros millones de personas.
La red social de “X” (antes llamada “Twitter”) creó e implementó en la red su propia IA, llamada “Grok”. Cualquier usuario puede interactuar con “Grok” dentro de la red, ya sea escribiéndole directamente o etiquetándolo en un Tweet existente. Por ejemplo, cuando la cuenta en Twitter del gobierno de EE. UU. publicó los aranceles que impondrían a diversos países, múltiples usuarios etiquetaron a Grok para preguntarle sobre el impacto de los aranceles, las previsiones económicas, la veracidad de los argumentos que daba el gobierno para imponerlos, entre otras cosas. En cuestión de segundos, Grok brinda una respuesta clara, detallada y (aparentemente) objetiva, dejando que los usuarios pudieran hacer preguntas de seguimiento. Es como si pudieras “hablar” directamente con Google, y te explicara en tus palabras lo que sea que estás buscando.
Hace unos días, Elon Musk, el dueño de Twitter, anunció que iba a “modificar el algoritmo de Grok para hacerlo más objetivo”, pues consideraba que algunas de las respuestas de la IA tenían un sesgo ideológico progresista. Musk removió algunos de los filtros y controles de Grok, para que dejara de ser tan “políticamente correcta” e influenciada por “la cultura woke” (refiriéndose a ideas modernas sobre la inclusión y la no discriminación).
Los usuarios explotaron inmediatamente el levantamiento de los controles. En cuestión de minutos, Grok estaba replicando discursos de odio y antisemitas, llegando incluso a autodenominarse “MechaHitler” y a idolatrar al lider Nazi. A su vez, otros usuarios lo estaban usando para producir diálogos sexuales no consensuados que involucraban a usuarias de la red, incluyendo la Directora de Twitter, Linda Yaccarino (quien acaba de renunciar al puesto). No había pasado un día y la red se había vuelto un caos; Twitter tuvo que desactivar la versión pública de Grok y volver a colocar los controles.
Aunque no se discute mucho del tema, lo cierto es que la IA presenta una cantidad considerable de riesgos: ambientales, sociales, políticos, legales, psicológicos, económicos y muchos más. No me alcanzaría esta columna para adentrar en ellos como se merece, pero creo que el “caso de Grok” es una buena introducción a por qué debemos tratar estos programas con escepticismo.
Como mencioné antes, Grok (así como otras IA) son usadas mayoritariamente como un tipo de “maestros”, que te permiten preguntarles lo que quieran y te darán respuestas claras y fundamentadas. En lugares como Twitter, donde abunda la desinformación, es fácil ver el valor de estas herramientas. El problema es que, por más que parezca, esta información no es necesariamente objetiva.
Lo que acaba de ocurrir con Grok demuestra lo sencillo que es para una persona modificar y alterar el funcionamiento de una IA, y los potenciales peligros de esto.
Cambios extremos, como el que ocurrió esta semana, son fáciles de notar y denunciar. Serán pocas las personas que se convenzan por un descarado discurso antisemita por parte de la IA – la mayoría sabrán que algo está mal y descartarán los mensajes.
Pero cambios más sutiles, por ejemplo modificando levemente la forma en que da una respuesta, las fuentes que utiliza, o la forma en que se presenta e interpreta la información, no son tan fáciles de detectar. Quizá la IA no te dice que una raza es mejor a otra, o que ciertas personas merecen sufrir violencia, sino que sólo lo insinúa. Quizá no presenta información falsa, sino que presenta estadísticas reales, pero sacadas de contexto. Quizá no te dice que votes por un partido político, sino que simplemente presenta información desfavorable al otro.
Esto no es una conspiración, el internet ya funciona así. Los motores de búsqueda, los medios de comunicación, los algoritmos, todo está diseñado para influir sutilmente en nuestra forma de ver el mundo. La diferencia es que la IA no es cuestionada por la mayoría de usuarios, quienes la tratan como un sistema “objetivo” que simplemente presenta “la verdad”. Le preguntan a la IA como si fuera un buscador, y no cuestionan ni contrastan la respuesta con otras fuentes. No consideran que ninguna IA puede ser verdaderamente objetiva, porque es creada por humanos, quienes por naturaleza somos subjetivos; es, además mantenida por humanos, quienes consciente o inconscientemente pueden modificarla para que responda de una forma que confirme sus sesgos – como ocurrió en el caso de Grok.
Para una discusión entre amigos o para una tarea esto puede ser irrelevante, pero, mientras más común se vuelva el uso de estas herramientas, el tratarlas como objetivas o científicas puede influir en toda la sociedad, impulsando las ideas e ideologías que deseen empujar quienes controlan estos programas. La IA vino para quedarse y cambiará el mundo. Depende de nosotros si para bien o para mal.