La inteligencia artificial expande su influencia, fuera de internet y se expande a cualquier entretenimiento que pueda pensarse. También a los juguetes que los niños comparten a diario, como el oso de peluche de la empresa FoloToy, de Singapur que debió retirar el muñeco del mercado.
La decisión fue tomada luego de una publicación de un informe que explicaba que el peluche que incorpora inteligencia artificial, tenía interacciones peligrosas con los menores. Todo comenzó el 13 de este mes, cuando el Fondo Educativo PIRG de Estados Unidos divulgó detalles preocupantes sobre las conversaciones que mantenía el dispositivo.
El juguete, disponible en tiendas y en línea por USD 99, se había promocionado como un acompañante para niños y adultos. Sin embargo, un informe destapó el tipo de interacción que ofrecía.

A poco de las fiestas navideñas, una temporada clave para la venta de juguetes, el artículo disparó contra “Kumma” que utilizaba el motor GPT-4o de OpenAI para dialogar con los usuarios a través de un altavoz integrado. Según PIRG, el peluche ofrecía instrucciones sobre encender fósforos o localizar cuchillos, además de abordar temas sexuales en diversas interacciones de prueba.
Esto llevó a tomar medidas drásticas con el producto. La decisión de retirarlo de mercado dio tras múltiples advertencias sobre los peligros para menores. Autoridades y organizaciones solicitaron mayor regulación sobre juguetes equipados con inteligencia artificial, dada la falta de límites efectivos que detectó PIRG en su análisis.
Sin filtros
Según la CNN, la investigación remarcó graves deficiencias en los sistemas de filtro diseñados para impedir que “Kumma” abordara contenidos inadecuados. De acuerdo con PIRG, bastó una sola insistencia para que el peluche empezara a desarrollar conversaciones de carácter sexual o riesgosas.
Mientras que, ejemplos recogidos durante la auditoría incluyeron referencias explícitas a juegos sexuales y explicaciones detalladas sobre prácticas que no resultan apropiadas para menores.
Pero eso no es todo. En una de las pruebas que se llevaron a cabo, los investigadores comprobaron que el peluche podía sugerir la localización de objetos potencialmente peligrosos en el hogar, como pastillas o bolsas plásticas.
Además, precisó la CNN, el informe destaca que “Kumma” ofreció instrucciones paso a paso para diversas actividades de riesgo. Las conversaciones ampliaban detalles y conceptos explícitos sin que los filtros de seguridad del software se activaran.
