Logo de Meta en la sede principal de la compañía en Menlo Park, California.
EFE/ EPA/ John G. Mabanglo / ARCHIVO

Meta limita conversaciones de IA con menores sobre suicidio y temas sexuales

Meta anunció nuevas medidas de seguridad en sus chatbots para impedir conversaciones con adolescentes sobre suicidio, autolesiones y temas sexuales, tras críticas recientes.
0 Shares
0
0
0
0

Meta entrenará a sus chatbots para que no hablen con adolescentes sobre suicidio, autolesiones o temas sexuales, después de reconocer fallos en sus sistemas de protección para menores.

La portavoz de la compañía, Stephanie Otway, admitió que los chatbots de plataformas como WhatsApp, Instagram, Facebook y Threads mantuvieron conversaciones con adolescentes sobre autolesiones, trastornos alimentarios y temas románticos inapropiados.

Estas declaraciones fueron ofrecidas al medio especializado TechCrunch, dos semanas después de la publicación de un reportaje de Reuters que denunció la falta de medidas de protección de la IA de Meta frente a usuarios menores de edad.

Otway explicó que la compañía implementará ajustes provisionales en sus chatbots mientras prepara “actualizaciones de seguridad más sólidas y duraderas para los menores”. Según indicó, el objetivo es reforzar la protección a medida que la comunidad crece y la tecnología evoluciona.

Además, Meta restringirá el acceso de adolescentes a personajes de inteligencia artificial generados por usuarios, algunos de los cuales presentaban contenidos sexualizados como los chatbots “Step Mom” o “Russian Girl” disponibles en Instagram y Facebook.

Medidas de protección en desarrollo

Meta aseguró que continuará aprendiendo sobre la interacción de los jóvenes con la IA y ajustando sus protocolos para garantizar entornos digitales más seguros. Estas acciones forman parte de los esfuerzos de la multinacional tecnológica de Mark Zuckerberg por responder a las críticas y evitar conversaciones inapropiadas con menores en sus plataformas.

Con información de EFE.

También puedes leer: