Sitio web oficial del PCTCartuja
La ingeniera sevillana Emilia Gómez es la investigadora principal de un proyecto sobre inteligencia artificial en el Centro Común de Investigación de la Comisión Europea en el PCT Cartuja. ABC de Sevilla ha publicado una interesante entrevista sobre su trabajo con la inteligencia artificial.
Emilia Gómez estudió piano en el Conservatorio y cursó Ingeniería de Telecomunicaciones en la Universidad de Sevilla. Se fue de Erasmus a París y a partir de ahí se iniciaría su carrera internacional. Hizo su doctorado entre la Universidad de Pompeu Fabra de Barcelona y el Royal Institute of Tecnology de Estocolmo, amplió sus estudios con estancias en Montreal y Londres, y ejerció como investigadora y profesora de Sonología en la Pompeu Fabra hasta que en 2018 regresó a Sevilla como investigadora principal de un proyecto sobre inteligencia artificial que se desarrolla en el Centro Común de Investigación de la Comisión Europea, situado en la isla de la Cartuja de Sevilla. De esa iniciativa nació el Centro Europeo de Transparencia Algorítmica.
Es experta en computación musical. ¿Qué hace exactamente?
Hablamos de un área que ha tenido un boom muy grande con la aparición de las plataformas musicales y los instrumentos digitales. Yo me especialicé en el área de las aplicaciones y he desarrollado algoritmos para la recomendación de música y descripción automática de música. Por ejemplo, si una música es de tonalidad mayor o menor o tiene tales acordes. A partir de que una persona tararee una melodía, los algoritmos que desarrollamos sirven para hacerle recomendaciones musicales.
¿Algo así como Shazam, la aplicación que te identifica una canción que suena en un bar?
Shazam identifica la canción pero eso no es lo mismo que si una persona la tararea. Este tipo de aplicaciones describen el sonido o la melodía y la comparan con una base de datos y te dicen qué tipo de música es. O que tiene un piano. O una orquesta sinfónica. Tiene muchas aplicaciones.
¿Acabarán estas aplicaciones con la creación musical?
Ahora se está hablando mucho de los sistemas de generación musical. Yo creo que los músicos integrarán estos sistemas pero es evidente que todas las tecnologías nuevas tienen un impacto en muchas profesiones. La Inteligencia Artificial (IA) es una tecnología de propósito general, como lo es la Internet o, en su día, la máquina de vapor.
¿Cómo cree que será ese impacto?
Depende de cómo lo usemos. La IA es una herramienta y tendrá un efecto u otro dependiendo de cómo la sociedad la integre. Hay un balance entre oportunidades y riesgos y es preciso buscar un equilibrio. En el Centro Común de Investigación de la Comisión Europea investigamos ese impacto de la IA en las personas, especialmente en los niños y en el mundo laboral.
¿Cuál es el mayor riesgo que presenta la IA?
Hay riesgos que se han documentado en la comunidad científica pero el mayor riesgo quizá sea que esa tecnología no esté bien diseñada o evaluada, que tenga fallos. Y que las personas tengamos demasiada confianza en ellas. Si te montas en un coche que no funciona bien, te puedes estrellar. Hay que evaluar bien los sistemas antes de utilizarlos.
Estos posibles fallos podrían resultar graves en el campo de la medicina...
La medicina es un campo que presenta muchas oportunidades para la IA porque permite por ejemplo optimizar recursos automatizando tareas. También permite personalizar los tratamientos y también es como un microscopio porque puede analizar imágenes con mucha precisión. Pero hay que ver que no tenga errores. Nosotros auditamos la IA para tratar de evitar esto y de ver el coste de posibles errores.
¿Y están descubriendo muchos errores?
Con lo que llevamos auditado, yo soy optimista, aunque con cautela. Hay que continuar trabajando porque cuanto más inteligentes sean los sistemas, menos errores tendrán. Hay margen de mejora.
ChatGPT comete bastantes errores...
Esta tecnología no es cien por cien fiable pero tampoco lo es una persona. En nuestra comunidad científica están los pesimistas y los optimistas y la verdad siempre está entre esos dos extremos. Yo soy más bien optimista pero el uso que se dé a la IA depende de las personas, no de la tecnología.
Como un cuchillo de cocina...
Ramón López de Mántaras, que es un investigador de IA del CSIC, dice que la IA es como un martillo. Puede clavar un clavo en la pared o matar a alguien si le das con él en la cabeza.
¿Percibe miedo en la sociedad a la IA?
El miedo se debe al desconocimiento de la tecnología. Para mucha gente es como magia.
¿Cree que la IA podría ayudar a tomar decisiones correctas en el ámbito de la Justicia?
Hay investigación sobre una especie de algoritmos que se llaman cálculos de riesgo que se utilizan ya en la Justicia. No son exactamente algoritmos sino una especie de guías o reglas generales. La IA tiene mucho potencial en tareas repetitivas que pueden ahorrar mucho tiempo en toma de decisiones pero no creo que pueda participar en procesos de tomas de decisiones críticas. También en la educación o en la gestión pública.
¿Se podría crear un algoritmo que determinara si una ley, por ejemplo la de amnistía que se ha registrado en el Congreso, se adapta a una norma superior, en este caso la Constitución?
Este tipo de conclusiones requeriría una interpretación de los expertos. Pero yo, la verdad, no me fiaría mucho de ese algoritmo, si se diseñara (ríe). Eso está más allá del estado del arte. Son cuestiones muy complejas que requieren un alto nivel cognitivo.
O sea, que no va a pasar....
Yo no soy mucho de ciencia-ficción. Pero tampoco considero que fuera bueno que eso pasara.
Póngame un ejemplo de un algoritmo que haya mejorado la vida de las personas. Un algoritmo en el que usted haya trabajado...
Nosotros desarrollamos un proyecto que se llamaba Banda Sonora Vital, que hicimos con la Fundación Pascual Maragall en el que desarrollamos una música personalizada para pacientes de Alzhéimer. Los terapeutas que trabajaban con ellos les ponían una música general pero no a todos les impactaba igual. Logramos hacer un sistema de recomendación musical personalizado para cada uno de esos pacientes. Tuvimos otro proyecto llamado Fénix, de música clásica, que estudiaba piezas sinfónicas muy complejas de varias horas y que analizó los patrones melódicos para ayudar a la gente a entender la pieza mejor. Estas personas mejoraron su experiencia musical en un concierto. Hablamos de personas que no conocen bien la música clásica. Gracias a un algoritmo un móvil te ayuda a llegar a un sitio que no conoces. El algoritmo, que es una ayuda cognitiva, como una calculadora.
¿Tiene hijos?
Dos, de 16 y 12 años.
Muchos de los ingenieros que han desarrollado los teléfonos inteligentes y otros algoritmos para las redes sociales les han prohibido su uso a sus hijos. ¿Está demostrado científicamente lo adictivos que son esos dispositivos y los trastornos mentales que causa?
En la Comisión Europea estamos trabajando en eso ya que no hay una regulación específica para esos plataformas. Ahora mismo es como un campo sin vallar. Existe una regulación para los juguetes que, por ejemplo, prohíbe que tengan piezas pequeñas que los niños puedan tragarse. La CE está definiendo dos regulaciones muy importantes. Una de ellas es la ley de servicios digitales, que afecta a plataformas y redes sociales. Y nosotros estamos haciendo el soporte científico-técnico a las plataformas que consideramos grandes, esto es, que tienen más de 45 millones de usuarios. La otra es la ley de Inteligencia Artificial, que se está negociando en el Parlamento Europeo y que se aprobará el año próximo.
¿No vamos ya un poco tarde con estas dos regulaciones?
Es una pregunta que no sé responder pero le diría que Europa es la primera zona del mundo que afronta estas regulaciones. No hay ninguna otra en ningún otro lugar.
La Justicia ya está actuando en Estados Unidos contra Meta por la adicción que crean sus contenidos en los menores. Hay una actuación coordinada de fiscales de más de 40 Estados.
Las plataformas pueden no pensar que sus contenidos generen adicción y que sean los padres quienes deben controlar a sus hijos.
Las tabaqueras decían lo mismo en los años 70 cuando se conocieron las primeras acusaciones sobre la adicción que generaba la nicotina y los efectos cancerígenos de los cigarrillos...
Nosotros lo que intentamos precisamente es mejorar el contenido científico que hay en este ámbito mapeando todos los estudios que se han hecho para dar evidencia científica a la Comisión Europea en este asunto para que tome las decisiones que correspondan. Es un tema reciente que los científicos investigamos de cerca para tener conclusiones más robustas. Hay muchas áreas de investigación en nuestro centro, todas muy interesantes, y contamos para realizarlas con profesionales de distintas disciplinas fuera del área más científica, entre ellos, psicólogos y filósofos.
¿Qué cree que puede pasar con las plataformas y redes sociales?
Creo que va a haber un cambio muy importante en los próximos años. El resultado de la regulación será la protección de los derechos fundamentales de las personas, especialmente de los menores de edad. Y los algoritmos que utilizan esas plataformas deberán respetar una serie de requisitos, entre ellos, que no haya discriminación ni sesgo por género, raza o cualquier otro motivo. También cómo tiene que ser la interacción, lo confiables que deben ser los algoritmos para que no causen problemas al usuario y que exista libertad de abandonar la plataforma.
Otro campo de gran preocupación es la desinformación. ¿Se puede luchar de forma eficaz contra la propagación de bulos y noticias falsas?
Ése no es mi campo pero es un tema muy interesante. Porque no es fácil para mucha gente diferenciar una noticia verdadera de una noticia falsa.
Algunos dicen que la mitad de lo que se lee en Internet es verdadero y la otra mitad falso.
Hay también una importante comunidad científica trabajando en eso que intenta describir los mecanismos de propagación de esos bulos y de cómo pueden influir en los procesos electorales. En el Centro Común de Investigación de la Comisión Europea hay un laboratorio dedicado a investigar la desinformación. Hay gente investigando las llamadas burbujas de información en la que se conectan personas que tienen ideas parecidas precisamente para reforzar sus convicciones.
Fuente: ABC de Sevilla