Muchas gracias a todos por el aplauso al profesor Eulogio por su presentación y palabras. Hoy voy a compartir con ustedes algunas ideas acerca de la inteligencia artificial. En particular, hablaré sobre el lado oscuro de la inteligencia artificial. Más adelante, creo que se abordará el tema de la inteligencia artificial en el ámbito educativo, así que vamos a comenzar.

Todos sabemos que la tecnología, a lo largo de la historia de la humanidad, ha sido fundamental para nuestro desarrollo, desde los instrumentos de piedra utilizados por nuestros antepasados hasta los aparatos más modernos que hoy tenemos en nuestras manos. La inteligencia artificial, sin duda, es una de esas tecnologías emergentes que ha tenido un desarrollo impresionante en los últimos años, impactando de manera directa diversos aspectos de nuestra vida, desde la medicina hasta la educación, sin olvidar otros sectores como la industria, también beneficiados por esta tecnología.

Entonces, ¿cuál es el problema? Algunos podrían preguntarse por qué abordar las dificultades de la inteligencia artificial si comienzo destacando sus aspectos positivos. El problema radica en que, aunque la inteligencia artificial presenta ventajas significativas, también plantea desafíos considerables.

El primer desafío que quiero destacar es su impacto en el ámbito laboral. Es cierto que la inteligencia artificial ayuda a mejorar muchos procesos; sin embargo, en sectores como la manufactura, los servicios, la medicina y el transporte, ha reemplazado a muchas personas en sus puestos de trabajo. Por ejemplo, Foxconn, una empresa de tecnología que brinda soporte a Apple, ha automatizado más de 60,000 puestos de trabajo en Estados Unidos. Esto significa que esos empleos ya no son realizados por humanos, sino por sistemas automatizados.

Un informe del McKinsey Global Institute, publicado en 2017, estimaba que entre 400 y 800 millones de empleos podrían ser reemplazados para el año 2030, es decir, dentro de aproximadamente cinco años. Esto evidencia cómo la inteligencia artificial amenaza de manera crítica los empleos a nivel global.

Otro aspecto preocupante es la perpetuación de sesgos y prejuicios. Los sistemas de inteligencia artificial son alimentados con datos que nosotros mismos compartimos en redes sociales y en Internet en general. Sin embargo, estos datos suelen estar cargados de sesgos y discriminación. La inteligencia artificial aprende de estos datos y, como resultado, genera respuestas igualmente sesgadas y prejuiciadas.

Un estudio realizado por ProPublica en Estados Unidos reveló que un sistema de inteligencia artificial utilizado para predecir la reincidencia delictiva señalaba que las personas negras tenían mayor probabilidad de cometer delitos, a pesar de que muchos de los datos mostraban que las personas blancas, también examinadas, ya habían cometido delitos y tenían antecedentes. Este ejemplo ilustra cómo la inteligencia artificial puede reproducir y amplificar prejuicios existentes.

Otro problema significativo es la creación de contenido falso, conocido en inglés como deepfakes. Este tipo de contenido consiste en la manipulación de imágenes y videos para hacer que personas aparezcan realizando acciones completamente falsas. Esto se evidenció recientemente en las pasadas elecciones de Estados Unidos, cuando circularon imágenes falsas, como una de Donald Trump siendo arrestado en una calle del país.

Un artículo de la Red Nacional de Noticias (RNN), titulado Amenaza invisible en las elecciones de Estados Unidos, recopiló datos del Center for Countering Digital Hate. Este centro identificó más de 6,500 contenidos falsos relacionados con políticos en redes sociales. De esos contenidos, el 58 % estaba dirigido contra el Partido Demócrata, por el que se postulaba Kamala Harris, y el 42 % contra el Partido Republicano.

Asimismo, se identificaron 12,000 publicaciones engañosas dirigidas al Partido Demócrata y 10,000 al Partido Republicano. Tal vez ustedes piensen que esto no importa, que las personas se dan cuenta de que son noticias falsas; sin embargo, no sucede así. Incluso aquí mismo, he visto casos cercanos. Por ejemplo, mi madre, que no es nativa digital, ha compartido información falsa que encuentra en redes sociales porque no tiene la precaución de verificarla. Esto, al final, engaña a las personas y puede influir en sus decisiones. Es un problema que debemos enfrentar de alguna manera.

En ese mismo sentido, en Almendralejo, un grupo de adolescentes utilizó un sistema de inteligencia artificial para crear imágenes falsas de niñas vecinas desnudas. Tomaron los rostros de las niñas y, utilizando esta tecnología, generaron imágenes manipuladas. Estas imágenes se compartieron en redes sociales, causando un daño irreparable a la imagen y dignidad de esas niñas. Esta situación es profundamente preocupante y es un ejemplo claro del mal uso de la tecnología. Esta información puede ser consultada en la página de Amnistía Internacional, donde se detalla con mayor profundidad.

Otro problema que nos afecta directamente es el impacto ambiental de los sistemas de inteligencia artificial. Los sistemas informáticos, en general, consumen enormes cantidades de energía, ya que dependen de supercomputadoras que operan las 24 horas del día. Gran parte de esta energía proviene de fuentes no renovables, como el carbón y el petróleo, las cuales generan altos niveles de contaminación.

Según una investigación de la Universidad de Massachusetts, un solo modelo de inteligencia artificial puede producir tanto dióxido de carbono como cinco automóviles a lo largo de su vida útil. Y sabemos que aquí, por ejemplo, hay vehículos que circulan por décadas, incluso 30 o 40 años. Si tomamos esto en cuenta, el impacto ambiental de estos sistemas es alarmante, especialmente en países como Estados Unidos, donde todo opera a gran escala.

Además, otro tema preocupante es la vigilancia masiva. El uso de algoritmos de reconocimiento facial amenaza la privacidad de todos nosotros. Es cierto que estos sistemas pueden ser útiles para identificar delincuentes o prevenir ciertos delitos, pero actualmente también se utilizan para vigilar a las personas de manera indiscriminada.

Un ejemplo claro es China, donde el gobierno ha implementado un sistema de «crédito social». Este sistema monitorea el comportamiento de las personas en redes sociales y otras actividades, asignándoles un puntaje basado en su conducta. Dependiendo de este puntaje, las personas pueden enfrentar restricciones como la prohibición de viajar, la negación de préstamos o dificultades para acceder a ciertos servicios.

Si alguno de ustedes ha visto la serie Black Mirror en Netflix, hay un capítulo que ilustra algo similar. En ese episodio, las personas obtienen puntajes basados en interacciones cotidianas. Si el puntaje no alcanza cierto nivel, enfrentan consecuencias graves: pierden el trabajo, el auto, e incluso caen en la indigencia. Este tipo de escenarios, que alguna vez parecieron ficción, ahora están más cerca de convertirse en realidad.

Esto resulta sorprendente, considerando que es una serie que probablemente tiene entre cinco y seis años. En aquel entonces, parecía un asunto totalmente distópico, pero hoy, con la inteligencia artificial, este tipo de situaciones son posibles.

Otro lado oscuro de la inteligencia artificial es su utilización en el ámbito militar. Actualmente, se emplea para fines bélicos, lo que ha dado lugar a lo que los expertos llaman «robots asesinos». Estos son drones controlados por inteligencia artificial que se utilizan para destruir objetivos específicos. Sin embargo, existe el riesgo de que estos sistemas cometan errores si no son supervisados por seres humanos. La guerra, en sí misma, ya es un problema que no debería existir, pero ahora, con estos sistemas, que antes solo se veían en las películas, se han convertido en una realidad, lo que demanda una vigilancia y regulación estrictas.

Otra problemática que afecta directamente a las personas es la dependencia hacia los sistemas de inteligencia artificial. Hace apenas dos o tres años, si necesitábamos redactar una carta o realizar alguna tarea, lo hacíamos manualmente. Hoy en día, muchas personas recurren a la inteligencia artificial para realizar escritos, análisis médicos y otras actividades.

Esto tiene un impacto negativo en nuestras capacidades, ya que, al no realizar estas actividades constantemente, empezamos a olvidar habilidades importantes. Esto afecta tanto nuestras capacidades cognitivas como motrices, pues preferimos delegar las tareas a la inteligencia artificial en lugar de resolverlas nosotros mismos.

En octubre de este año, según el New York Times, una madre presentó una demanda contra una empresa llamada Character AI y contra Google. Acusaba a estas compañías de ser responsables del suicidio de su hijo adolescente. Este joven había desarrollado una relación cercana y sentimental con un sistema de inteligencia artificial con el que hablaba de temas íntimos. Aunque el adolescente ya sufría de depresión, la madre argumentó que esta relación dependiente con el sistema lo aisló aún más, impidiéndole buscar ayuda en otros lugares.

Esta situación recuerda la película Her, protagonizada por Joaquin Phoenix, donde un hombre se enamora de un sistema de inteligencia artificial. Además, recientemente, la actriz Scarlett Johansson demandó a una compañía por utilizar una voz muy similar a la suya en un sistema de inteligencia artificial. La voz recreada se asemejaba a la que ella había prestado para este tipo de sistemas en la película.

Estos casos nos llevan a reflexionar sobre la necesidad de exigir a las empresas de inteligencia artificial que sean responsables y tomen medidas para alertar a las autoridades, familias y escuelas sobre situaciones similares. Muchas personas utilizan estos sistemas para establecer relaciones de amistad o incluso amorosas con entidades que no existen, lo que puede generar problemas emocionales graves.

Por otro lado, en aplicaciones de citas como Tinder, se ha detectado el uso de inteligencia artificial con sesgos significativos. En algunos casos, los emparejamientos realizados por el algoritmo discriminaban, asignando parejas según criterios cuestionables, como unir a mujeres con menor desarrollo profesional con hombres con mayores logros. Esto llevó a la presentación de demandas contra la aplicación, y sus responsables aseguran que ya no utilizan dichos sistemas. Esta información puede consultarse en el periódico El País, donde se abordan los problemas éticos asociados a estas prácticas.

Aunque la inteligencia artificial tiene un potencial extraordinario, también conlleva riesgos importantes. Por ejemplo, en el ámbito educativo, escribí un artículo titulado Escritura de microrelatos con apoyo de inteligencia artificial. En él, se describe cómo se puede usar esta tecnología para generar imágenes que sirvan de base para escribir textos. Sin embargo, al solicitarle al sistema que mejorara los textos, los resultados fueron decepcionantes, ya que muchas veces alteraba el sentido y la coherencia de lo escrito por los estudiantes.

Esto demuestra que, aunque la inteligencia artificial puede ser una herramienta poderosa, es esencial utilizarla con precaución, especialmente en actividades creativas o educativas.

En conclusión, la inteligencia artificial tiene un potencial inmenso, pero también plantea retos peligrosos para la humanidad. Según un informe mencionado anteriormente, se estima que entre 400 y 800 millones de personas podrían perder sus empleos para 2030 debido a la automatización.

La tecnología, aunque es un recurso valioso, debe ser manejada con inteligencia y responsabilidad. Como seres humanos, poseemos la máquina más poderosa de todas: nuestro cerebro. No debemos permitir que la tecnología nos haga dependientes, sino utilizarla como una herramienta para mejorar nuestras capacidades y nuestra calidad de vida.

Quiero felicitar al ponente por su excelente exposición. Siempre he apoyado este tipo de reflexiones, y agradezco la oportunidad de seguir adelante con estas discusiones. No debemos temerle a la tecnología; enfrentémosla y demos un uso racional a los recursos que nos brinda. Si lo hacemos, veremos cómo seguimos progresando como sociedad.

Estoy de acuerdo con lo que se planteó anteriormente: la tecnología es una herramienta, y su impacto depende del uso que le demos. Es como un cuchillo, que podemos usar para cortar alimentos, para sobrevivir en una situación hipotética en el monte, o incluso para hacer daño si se utiliza de manera irresponsable. De igual forma, la inteligencia artificial puede ser utilizada para fines positivos o negativos. Muchas empresas privadas y gobiernos han implementado sistemas que no solo vigilan, sino que también manipulan a las personas. Por eso, la responsabilidad recae siempre en quienes diseñan y utilizan estas herramientas.

Anthony, no sé si viste el capítulo de Black Mirror donde se toma la identidad de una persona y se recrea como si fuera otra, con una voz diferente y una apariencia completamente manipulada. Este tipo de tecnología es posible gracias a las redes neuronales, que son la base de lo que llamamos inteligencia artificial hoy en día.

Imaginemos este ejemplo: supongamos que hablo español y me envían a China. Allí me entregan una frase en chino y un libro que traduce esa frase a japonés. Yo copio esa información sin entenderla y se la entrego a alguien más. Para la persona que habla chino, podría parecer que sé japonés, pero en realidad solo sigo un patrón. Esto es básicamente lo que hace una red neuronal: procesar patrones y datos sin comprender realmente su significado.

Las redes neuronales funcionan así: reciben información dividida en patrones y realizan ajustes progresivos hasta refinar los resultados. La máquina no entiende lo que hace, solo ejecuta el algoritmo que le han programado. Por eso, aunque la inteligencia artificial puede parecer que «piensa», lo que realmente hace es procesar información de manera eficiente, basándose en los datos que se le han proporcionado.

Sin embargo, aquí surge un problema. Si la información que alimenta a la inteligencia artificial está sesgada, los resultados reflejarán esos sesgos. Por ejemplo, si una sociedad tiene prejuicios raciales, la inteligencia artificial puede replicarlos. Esto ha sucedido en múltiples ocasiones y ha llevado a demandas legales contra empresas como ChatGPT, Google y Facebook. En un caso reciente, las empresas se resistieron a pagar el tratamiento psicológico de las personas encargadas de filtrar contenidos dañinos de sus sistemas. Estas personas, al estar expuestas constantemente a contenido perturbador, terminan desarrollando problemas psicológicos graves. No sé si esta situación ya se ha resuelto, pero es un tema crítico que debe abordarse.

En conclusión, la inteligencia artificial tiene un potencial inmenso, pero también presenta desafíos éticos y sociales que no podemos ignorar. Es responsabilidad de los seres humanos supervisar, corregir y garantizar que estas tecnologías sean utilizadas para el beneficio colectivo, sin perpetuar desigualdades ni causar daño a quienes las desarrollan o las utilizan.