Artículo
¿Se puede regular la inteligencia artificial? La palabra de Daniel Yankelevich
La inteligencia artificial, con el pasar del tiempo, se desarrolla cada vez más rápido. Numerosas ventajas se le pueden encontrar para diversas áreas como el trabajo, la educación y la medicina. Pero, del mismo modo, puede llegar a ser un gran riesgo para nuestra humanidad, y es por esta razón que muchos empezaron a tomar medidas para ralentizar su avance. Diversos países decidieron tomar acciones frente al gran desarrollo que la inteligencia artificial está teniendo, y de esa manera lograr mayor protección para sus habitantes.
Desde nuestro lado, nosotras creemos que la inteligencia artificial en el ámbito de la educación es una gran herramienta, siempre y cuando se logre utilizar de la mejor manera y las personas más jóvenes no pierdan otras capacidades.
La inteligencia artificial está por todos lados. Es casi imposible no escuchar este término al menos una vez por día, y para quienes trabajamos con temas de tecnología, es básicamente la piedra angular de los últimos tiempos. Desde el lanzamiento de los primeros modelos avanzados de lenguaje gratuitos, apenas meses atrás, el avance ha sido más que significativo. Hablamos de sistemas que aprenden de la interacción con los usuarios, que están en constante evolución. Y, hay que decirlo, que también generan alguna preocupación al respecto.
Daniel Yankelevich es informático, licenciado en la Escuela Superior Latinoamericana de Informática (ESLAI) en Argentina y recibió su doctorado en la Universidad de Pisa. Además, realizó un postdoctorado en Carolina del Norte (EE. UU.) y fue docente e investigador en diversas universidades del país. Director de Fundar, Daniel es también experto en inteligencia artificial. Y, a su vez, Daniel fue el primer entrevistado de “Entre Redes”, el nuevo programa de RÍO NEGRO RADIO, para hablar sobre todas estas cuestiones que atañen a la IA.
P – Durante los últimos meses, muchos expertos se preguntan que chances hay de regular el uso de la IA, y hasta han pedido “parar la pelota” por un tiempo. ¿Es un pedido factible? ¿Se puede frenar algo que crece a este ritmo?
R – No, no se puede parar. Se entiende el pedido de esta gente, y hay que verlo en contexto. La semana pasada salió una carta donde una cantidad de expertos como Steve Wozniak, Elon Musk y demás piden parar el desarrollo de modelos muy avanzados por seis meses para discutir más a fondo los temas de riesgo y las implicaciones para la sociedad. Por un lado, uno lo puede ver como algo un poco naif, decir “vamos a parar seis meses” cuando esto ya está corriendo. ¿Le vamos a decir a los rusos, a los chinos, a laboratorios de todo el mundo que paren? Es imposible. También hay temas personales, porque no olvidemos que Elon Musk estuvo como cofundador de OpenAI, la empresa que desarrolla el ChatGPT. Pero que hay riesgos concretos es totalmente cierto, y eso va más allá de la carta.
P – ¿Cuáles son los riesgos que se empiezan a correr con las IA? ¿Pueden suplantar trabajos, pero hasta donde llega este miedo?
R – Me alegra la pregunta (risas). En un extremo puede estar el riesgo de Terminator: uno se imagina a las máquinas atacando a la gente y lo ve como algo de ciencia ficción, pero la realidad es que hay empresas que ya están trabajando en conectar modelos como el ChatGPT con la posibilidad de accionar. Eso puede ir desde cuestiones automáticas hasta mandar instrucciones, o incluso contratar personas a través de distintas plataformas, y eventualmente llevar a cabo un plan o un programa complejo. Hace unas semanas, un periodista del New York Times hizo una especie de encuesta a expertos de IA preguntando cuán probable veían ellos una situación donde el desarrollo de la inteligencia artificial avanzada llevara a algo que cause la extinción de la humanidad o tuviera un impacto similar. Sorprendentemente, el promedio dio un 10% de posibilidades. Y lo que se preguntaba el periodista es cómo podía haber gente que trabajara en algo si piensa que hay una chance sobre diez de que se extinga la humanidad por lo que hacen. Esto es un extremo, y yo de ese extremo dudo, no creo que sea el riesgo a considerar hoy. Sí creo que hay que discutirlo, porque esto ocurre, incluso existen armas autónomas. No es tecnología muy difundida pero que podría ponerse en juego, lo cual es peligroso. Para mí, la primera preocupación es el impacto social que esto tiene, que pasa por dos lugares. El primero es cómo va a impactar esto en el mundo laboral, y el segundo es todo lo que es fake news, manipular las noticias y a la gente, manipular la democracia.
P – El ámbito educativo es uno de los tantos que ya se vio afectado. Es común leer quejas de docentes respecto al uso excesivo de la IA. ¿Cómo se puede tratar este tema?
R – Mirá, te voy a contar una anécdota personal. Cuando yo estudiaba en el secundario, nos prohibían usar la calculadora científica, y para calcular un logaritmo teníamos que usar un librito con tablas. Es una pavada. Yo lo que creo es que en todo caso deberían haberme enseñado a usar la calculadora científica mejor, hubiera sido más útil. Y creo que ahora hay que pensar lo mismo. A ver, esto va a estar disponible, entonces ¿cómo hago para que la gente que se está formando se forme en el mejor uso posible de estas inteligencias artificiales? ¿Cómo podemos hacer para que usen mejor estas herramientas sin perder otras capacidades? Me parece que el impacto en el sistema educativo requiere repensar cosas de cero, y no hacer lo mismo que hicieron conmigo y la calculadora.
P – Otro tópico que trae polémica tiene que ver con el marco de las regulaciones, de cuáles son los límites. Cada país tiene su propia legislación, pero las leyes están quedando por detrás. ¿Cómo se puede regular la IA, sobre todo para no cometer actos ilícitos?
R – Por lo general las regulaciones vienen por detrás de los avances tecnológicos, llegan después. En Argentina, por ejemplo, tenemos una ley de protección de datos personales que es vieja. Este año hubo una discusión con una propuesta de nueva ley muy interesante, pero que nunca se llevó a cabo. Y necesitamos tener regulaciones más modernas, pero va a llegar tarde. Ahora, una preocupación asociada a eso es que este tema, en la agenda de los políticos y la sociedad, está por detrás. Hoy ves la pobreza y decís “qué me importa la inteligencia artificial”. Pero también hay una línea que une las dos cosas. La IApodría utilizarse como generador de nuevos trabajos, de nuevas riquezas, a través de nuevas aplicaciones que den trabajo a más gente y que permitan desarrollar la economía. Pero a la vez puede funcionar incrementando la desocupación en determinados sectores, y causando toda una serie de problemas. Hay una preocupación genuina en poner este tema en la agenda de los políticos. Es un tema que puede ser muy importante en los próximos años.
P – Ya se han visto chispazos entre la IA y el ámbito del arte, con discusiones respecto al derecho de autor y los plagios. Quizás ese sea otro de los debates que se vienen…
R – Es que muchos de estos debates ya están pasando. Hay algunos juicios, y en algunos países ya llegaron a la Corte Suprema, sobre este tema. Si le pido a una IA como Dall-E, que genera imágenes a través de millones de imágenes tomadas de Internet, la pregunta es quién tiene el copyright. Hay un acuerdo en las regulaciones en que el copyright está asociado a humanos y no máquinas, con lo que se supone que estas composiciones no podrían pedir copyright. Hay dos maneras de verlo. Por un lado está la opinión de quién debería tener el poder, y por otro lado está la parte concreta, que es de quién será legalmente y quién puede cobrar sobre eso. Respecto a esto segundo, empieza a haber algunas respuestas, donde dicen que si lo hizo una IA no hay copyright. Pero empiezan a aparecer ejemplos de gente que usa esta IA para hacer nuevos logos, el packaging de un producto o algo que puede llamarse arte. Y empieza a haber un conflicto, que más allá de lo filosófico está más claro en el plano práctico: se van a pedir menos personas para diseñar porque lo va a empezar a hacer un sistema.
P – Ya hay algunos informáticos que aseguran que la IA podría tener sentimientos. ¿Estamos yendo hacia un plano donde la tecnología pueda tener sentimientos? El caso Terminator paece ciencia ficción, ¿pero efectivamente estamos cada vez más cerca de una “guerra con las máquinas”?
R – No sé si una guerra de las máquinas, pero puede llegarse a una situación donde las máquinas y las IA generen mucho daño y mucho impacto en la sociedad (o mucho beneficio y mucho impacto) sin que lleguen a tener sentimientos o conciencia. Eso puede darse igual con los niveles que estamos logrando hoy. Creo que estamos lejos aún de que tengan sentimientos, de que realmente tengan una conciencia. Los humanos tenemos una tendencia a personalizar, a darle esa visión a diferentes objetos, les ponemos nombres y los tratamos como seres vivos. Estos sistemas distan mucho de eso, pero no quiere decir que no estemos avanzando rápidamente hacia ahí. Seguramente en algún momento nos preguntaremos si las máquinas tienen conciencia o no, y también debamos pensar cuál va a ser el test que nos permita saber si tiene o no.