Para sus hijos, Montessori; para los ajenos, el algoritmo | Columna en El Líbero
Hoy, esa misma lógica se replica con la inteligencia artificial. Las empresas advierten sobre sus riesgos, contratan expertos en seguridad y financian think tanks de ética digital, a la vez que aceleran su desarrollo.

Fotografía: Taiki Ishikawa / Unsplash
Hace una semana, un jurado en California multó a Meta y Google con seis millones de dólares por diseñar sus plataformas para ser adictivas. Días antes, Sam Altman –fundador y CEO de OpenAI– publicó una vacante de US$555.000 anuales para un cargo llamado «jefe de preparación» con la misión de apagar las máquinas si la inteligencia artificial se vuelve contra la humanidad. Dos noticias distintas con una lógica en común: industrias que construyen algo que saben que puede destruir y, mientras tanto, siguen construyendo.
No estamos hablando de industrias negligentes. Es cálculo. Un documento interno filtrado en 2017 reveló que Facebook e Instagram ya entonces monitoreaban a adolescentes entre 13 y 17 años –dentro y fuera de la plataforma– para detectar momentos de «vulnerabilidad psicológica», esto es, cuando se sentían «inútiles», «fracasados», «sin valor alguno» o preocupados por su cuerpo. Claramente el objetivo no era protegerlos, sino aprovechar ese momento de vulnerabilidad para venderles publicidad. Así, una empresa de cosméticos pagaba para que sus anuncios aparecieran en el momento exacto en que una adolescente borraba un selfie. Molly Russell, una joven británica, guardó publicaciones de una cuenta llamada Feeling Worthless antes de quitarse la vida. «Baja autoestima» era exactamente uno de los estados emocionales que Facebook identificaba en adolescentes para mostrarles publicidad dirigida. La empresa sabía el riesgo. Sus propios documentos internos lo reconocían. Y adivinen qué… siguieron igual.
Lo más hipócrita –y a esta altura tragicómico– son las dinámicas dentro de los hogares de Silicon Valley. Como es de esperar, los mismos ejecutivos que diseñan feeds infinitos para adolescentes vulnerables limitan severamente el acceso de sus propios hijos a las pantallas, nunca suben fotos de ellos y han llenado sus casas de juguetes Montessori. ¿Por qué? Porque saben exactamente lo que venden. La diferencia, eso sí, entre sus hijos y los ajenos, es que los suyos sí están protegidos.
Hoy, esa misma lógica se replica con la inteligencia artificial. Las empresas advierten sobre sus riesgos, contratan expertos en seguridad y financian think tanks de ética digital, a la vez que aceleran su desarrollo.
OpenAI busca a alguien para apagar el interruptor mientras construye precisamente lo que podría necesitar apagarse. No seamos ingenuos, el botón de apagado existe para gestionar la imagen, no para efectivamente usarse.
Lo que une a estas dos industrias no es la tecnología ni su falta de regulación, sino la actitud de quienes las dirigen. Personas que conocen el daño, lo documentan internamente, lo discuten en reuniones, protegen a sus propios hijos, y aun así eligen acelerar el desarrollo. No por ingenuidad, ni por ignorancia, ni por error. Es una decisión, repetida todos los días, de que el costo lo paguen otros.



