En un paso sin precedentes en Estados Unidos, el Senado de California aprobó la SB 243, un proyecto de ley orientado a regular el uso de chatbots diseñados para brindar compañía social, también conocidos como chatbots acompañantes. Si bien aún requiere la firma del gobernador Gavin Newsom —quien tiene plazo hasta el 12 de octubre—, la medida busca marcar el rumbo para una legislación más robusta sobre inteligencia artificial y bienestar emocional.
cLa norma introduce una serie de obligaciones para las plataformas que ofrecen este tipo de servicios, centradas en proteger a los usuarios frente a riesgos como la desinformación, la dependencia emocional y, sobre todo, la exposición a contenidos que promuevan el suicidio o la autolesión.
¿Qué regula la SB 243?
El foco principal de la ley está en los chatbots que simulan conversaciones humanas con fines sociales o emocionales. Aunque no regula toda la IA conversacional, sí impone requisitos específicos a quienes desarrollan o mantienen plataformas de interacción prolongada con usuarios, especialmente si se identifican como menores de edad.
Algunas de sus disposiciones son puntuales, como:
- Obligar a que el chatbot indique explícitamente cada tres horas que no es una persona real, y sugerir al usuario que considere tomar un descanso.
- Requerir un sistema que detecte ideación suicida, autolesiones o señales de crisis emocional, con la obligación de redirigir al usuario a líneas de ayuda especializadas.
- Establecer responsabilidades legales para los operadores que no cuenten con protocolos adecuados frente a estos riesgos.
Un artículo eliminado durante las negociaciones prohibía la gamificación —mecanismos que incentivan la permanencia del usuario, como premios simbólicos o “niveles”—, lo que indica las tensiones legislativas al intentar regular un terreno tan dinámico como la IA emocional.
Un enfoque preventivo, pero con fisuras
La SB 243 no contempla sanciones administrativas por parte del Estado. En cambio, habilita a los usuarios que se consideren perjudicados a presentar demandas civiles por hasta USD 1.000 por infracción, más los costos legales. Este diseño ha generado cuestionamientos: algunos críticos advierten que puede incentivar litigios oportunistas o dificultar la innovación por temor a responsabilidades desproporcionadas.
Desde el sector tecnológico, los desarrolladores han planteado que los sistemas de IA basados en aprendizaje automático no son fácilmente modificables en sus comportamientos específicos, lo que complica el cumplimiento estricto de regulaciones finamente detalladas. Sin embargo, investigaciones recientes de la Comisión Federal de Comercio (FTC) revelan que muchas empresas no monitorean ni evalúan adecuadamente los riesgos psicosociales de sus productos, sobre todo en relación con niños y adolescentes.
You must be logged in to post a comment Login