Hernandez Orallo disecciona la Inteligencia Artificial y Gottlob la psicoanaliza en el VSCF 2025
La jornada inaugural del ValgrAI Scientific Council Forum reúne en la UPV a expertos internacionales, jóvenes investigadores y empresas punteras para reflexionar sobre los retos éticos, científicos y sociales de la IA.
La Facultad de Bellas Artes de la Universitat Politècnica de València (UPV) ha acogido hoy la apertura del IV ValgrAI Scientific Council Forum (VSCF), evento anual que impulsa el diálogo entre ciencia, empresa e instituciones para analizar el presente y futuro de la inteligencia artificial. Organizado por la Fundación ValgrAI, el foro ha reunido a más de 300 asistentes en una jornada multidisciplinar que ha puesto el foco en la aplicación responsable, transparente y transformadora de la IA.
La bienvenida institucional ha corrido a cargo de Ana Cidad, Directora Gerente de ValgrAI; Vicent Botti, Director General; y Inma Romero, Directora del Área de Biblioteca, Documentación y Ciencia Abierta de la Universitat Politècnica de València. Los tres han coincidido en destacar el compromiso de ValgrAI con una inteligencia artificial que no solo avance en lo técnico, sino que también sirva para mejorar la vida de las personas y los entornos que habitan.
La primera keynote de la jornada ha sido impartida por el investigador de ValgrAI, UPV y la University of Cambridge, José Hernández Orallo, una de las voces más autorizadas en el campo de la evaluación de la inteligencia artificial. En su ponencia, titulada «AI Evaluation with Explanatory and Predictive Power», el investigador ha subrayado la necesidad de superar las métricas tradicionales —basadas en aciertos o benchmarks estáticos— para avanzar hacia sistemas de evaluación que expliquen el rendimiento de los modelos, predigan su comportamiento en situaciones nuevas y permitan compararlos de forma robusta con capacidades humanas.
Hernández Orallo ha presentado herramientas como DeLeAn y ADeLe, que permiten analizar de forma más granular las habilidades cognitivas que exhibe una IA, y entender qué tipo de generalización realiza. Esta perspectiva no solo es crucial para diseñar sistemas más seguros y eficaces, sino también para construir una IA más comprensible y auditable. “Debemos dejar de preguntar simplemente si un sistema acierta y empezar a preguntarnos por qué lo hace”, ha concluido.
![[Img #47811]](https://deniadigital.es/upload/images/07_2025/507_valgrai2.jpg)
El futuro de la Inteligencia Artificial
El bloque titulado “The Future of AI: ValgrAI Researchers” ha sido uno de los momentos más estimulantes de la jornada, con la participación de diez investigadores pre y postdoctorales de las universidades valencianas, que han compartido proyectos punteros con alto impacto social, muchos de ellos desarrollados en colaboración con centros médicos, educativos e industriales. Estas intervenciones han demostrado cómo el ecosistema ValgrAI está formando a una nueva generación de científicos con una mirada aplicada, rigurosa y comprometida.
-
Behzad Mehrbakhsh (UPV) ha abierto el bloque con su estudio sobre el "Contamination Budget", un modelo teórico que analiza cómo distintos niveles de ruido o contaminación en los datos de entrenamiento afectan el rendimiento de los modelos de IA.
-
Lucía Gómez (HealthTech-UPV) ha presentado un sistema de detección multimodal de depresión mediante análisis de voz, lenguaje y expresiones faciales.
-
Salvador López Barajas (UJI) ha compartido avances en robótica submarina, donde aplica IA para que robots autónomos puedan detectar, reconocer y manipular objetos bajo el agua.
-
Carlos S. Galindo (VRAIN-UPV) ha presentado una solución para la extracción automática de contenido principal y comentarios en páginas web.
-
Vicente Quiles (UMH) ha mostrado NeuroRunner, un videojuego neurorehabilitador controlado por la mente.
-
Carlos Aliaga Torró (VRAIN-UPV) ha explicado AMAIA-EPO, una arquitectura adaptativa con agentes inteligentes para la personalización del aprendizaje.
-
Sergio Gómez (PHRLT-UPV) ha introducido un toolkit en Python para la evaluación automatizada de modelos de lenguaje, dentro del proyecto ARCHER.
-
Ana Sierra García (HealthTech-UPV) ha mostrado un estudio pionero sobre la actividad cerebral durante la imaginación motora.
-
Sandra Goizueta Berheide (HealthTech-UPV) ha expuesto un proyecto de evaluación de la conciencia encubierta en pacientes con daño cerebral severo.
-
Rodrigo Barriga Porras (HealthTech-UPV) ha cerrado el bloque con un modelo predictivo del nivel de independencia funcional de pacientes con daño cerebral traumático o ictus.
Aplicación empresarial de la IA
Posteriormente, las empresas han presentado casos de éxito en el uso de la inteligencia artificial:
-
Luis Búrdalo (S2 Grupo) ha explicado cómo utilizan IA para detectar ciberataques en tiempo real mediante plataformas como GLORIA o CARMEN.
-
Manuel Herranz (Pangeanic) ha defendido el uso de Small Language Models (SLMs), frente a los grandes modelos centralizados.
-
Katherin Orozco (Nunsys Group) ha mostrado NARRATE, una plataforma de manufactura inteligente.
-
Cristina Baixauli (Hidraqua) ha detallado cómo usan IA para mejorar la gestión del agua, con sistemas predictivos y visión artificial.
-
José Vicente Cercós (Idrica) ha presentado “De datos a decisiones”, con predicciones avanzadas y análisis prescriptivo para evitar inundaciones y anticipar escenarios.
-
Pablo Fernández (Baleària) ha explicado cómo la naviera aplica IA para optimizar rutas, consumo energético y mantenimiento preventivo, además del desarrollo de gemelos digitales para sus buques.
“Psicoanálisis” de ChatGPT
La segunda ponencia magistral ha sido ofrecida por Georg Gottlob (Universidad de Oxford y Universidad de Calabria), bajo el título «Psychoanalysis (and Therapy) of ChatGPT». Ha expuesto una crítica fundamentada sobre los modelos generativos como ChatGPT, que presentan errores sistemáticos, sesgos y tendencia a “alucinar” datos.
Como solución, ha propuesto Chat2Data, un sistema de agentes inteligentes con revisión interna y validación cruzada, ideal para entornos científicos, jurídicos o administrativos.
La jornada ha concluido con una mesa redonda moderada por Ramon López de Mantaras (CSIC), con la participación de Carme Torras (CSIC), Tom Dietterich (Oregon State University) y el propio Gottlob. Se han abordado los retos científicos, éticos y sociales de la IA, incluyendo la necesidad de una gobernanza democrática y la transparencia en la investigación.

La Facultad de Bellas Artes de la Universitat Politècnica de València (UPV) ha acogido hoy la apertura del IV ValgrAI Scientific Council Forum (VSCF), evento anual que impulsa el diálogo entre ciencia, empresa e instituciones para analizar el presente y futuro de la inteligencia artificial. Organizado por la Fundación ValgrAI, el foro ha reunido a más de 300 asistentes en una jornada multidisciplinar que ha puesto el foco en la aplicación responsable, transparente y transformadora de la IA.
La bienvenida institucional ha corrido a cargo de Ana Cidad, Directora Gerente de ValgrAI; Vicent Botti, Director General; y Inma Romero, Directora del Área de Biblioteca, Documentación y Ciencia Abierta de la Universitat Politècnica de València. Los tres han coincidido en destacar el compromiso de ValgrAI con una inteligencia artificial que no solo avance en lo técnico, sino que también sirva para mejorar la vida de las personas y los entornos que habitan.
La primera keynote de la jornada ha sido impartida por el investigador de ValgrAI, UPV y la University of Cambridge, José Hernández Orallo, una de las voces más autorizadas en el campo de la evaluación de la inteligencia artificial. En su ponencia, titulada «AI Evaluation with Explanatory and Predictive Power», el investigador ha subrayado la necesidad de superar las métricas tradicionales —basadas en aciertos o benchmarks estáticos— para avanzar hacia sistemas de evaluación que expliquen el rendimiento de los modelos, predigan su comportamiento en situaciones nuevas y permitan compararlos de forma robusta con capacidades humanas.
Hernández Orallo ha presentado herramientas como DeLeAn y ADeLe, que permiten analizar de forma más granular las habilidades cognitivas que exhibe una IA, y entender qué tipo de generalización realiza. Esta perspectiva no solo es crucial para diseñar sistemas más seguros y eficaces, sino también para construir una IA más comprensible y auditable. “Debemos dejar de preguntar simplemente si un sistema acierta y empezar a preguntarnos por qué lo hace”, ha concluido.
El futuro de la Inteligencia Artificial
El bloque titulado “The Future of AI: ValgrAI Researchers” ha sido uno de los momentos más estimulantes de la jornada, con la participación de diez investigadores pre y postdoctorales de las universidades valencianas, que han compartido proyectos punteros con alto impacto social, muchos de ellos desarrollados en colaboración con centros médicos, educativos e industriales. Estas intervenciones han demostrado cómo el ecosistema ValgrAI está formando a una nueva generación de científicos con una mirada aplicada, rigurosa y comprometida.
-
Behzad Mehrbakhsh (UPV) ha abierto el bloque con su estudio sobre el "Contamination Budget", un modelo teórico que analiza cómo distintos niveles de ruido o contaminación en los datos de entrenamiento afectan el rendimiento de los modelos de IA.
-
Lucía Gómez (HealthTech-UPV) ha presentado un sistema de detección multimodal de depresión mediante análisis de voz, lenguaje y expresiones faciales.
-
Salvador López Barajas (UJI) ha compartido avances en robótica submarina, donde aplica IA para que robots autónomos puedan detectar, reconocer y manipular objetos bajo el agua.
-
Carlos S. Galindo (VRAIN-UPV) ha presentado una solución para la extracción automática de contenido principal y comentarios en páginas web.
-
Vicente Quiles (UMH) ha mostrado NeuroRunner, un videojuego neurorehabilitador controlado por la mente.
-
Carlos Aliaga Torró (VRAIN-UPV) ha explicado AMAIA-EPO, una arquitectura adaptativa con agentes inteligentes para la personalización del aprendizaje.
-
Sergio Gómez (PHRLT-UPV) ha introducido un toolkit en Python para la evaluación automatizada de modelos de lenguaje, dentro del proyecto ARCHER.
-
Ana Sierra García (HealthTech-UPV) ha mostrado un estudio pionero sobre la actividad cerebral durante la imaginación motora.
-
Sandra Goizueta Berheide (HealthTech-UPV) ha expuesto un proyecto de evaluación de la conciencia encubierta en pacientes con daño cerebral severo.
-
Rodrigo Barriga Porras (HealthTech-UPV) ha cerrado el bloque con un modelo predictivo del nivel de independencia funcional de pacientes con daño cerebral traumático o ictus.
Aplicación empresarial de la IA
Posteriormente, las empresas han presentado casos de éxito en el uso de la inteligencia artificial:
-
Luis Búrdalo (S2 Grupo) ha explicado cómo utilizan IA para detectar ciberataques en tiempo real mediante plataformas como GLORIA o CARMEN.
-
Manuel Herranz (Pangeanic) ha defendido el uso de Small Language Models (SLMs), frente a los grandes modelos centralizados.
-
Katherin Orozco (Nunsys Group) ha mostrado NARRATE, una plataforma de manufactura inteligente.
-
Cristina Baixauli (Hidraqua) ha detallado cómo usan IA para mejorar la gestión del agua, con sistemas predictivos y visión artificial.
-
José Vicente Cercós (Idrica) ha presentado “De datos a decisiones”, con predicciones avanzadas y análisis prescriptivo para evitar inundaciones y anticipar escenarios.
-
Pablo Fernández (Baleària) ha explicado cómo la naviera aplica IA para optimizar rutas, consumo energético y mantenimiento preventivo, además del desarrollo de gemelos digitales para sus buques.
“Psicoanálisis” de ChatGPT
La segunda ponencia magistral ha sido ofrecida por Georg Gottlob (Universidad de Oxford y Universidad de Calabria), bajo el título «Psychoanalysis (and Therapy) of ChatGPT». Ha expuesto una crítica fundamentada sobre los modelos generativos como ChatGPT, que presentan errores sistemáticos, sesgos y tendencia a “alucinar” datos.
Como solución, ha propuesto Chat2Data, un sistema de agentes inteligentes con revisión interna y validación cruzada, ideal para entornos científicos, jurídicos o administrativos.
La jornada ha concluido con una mesa redonda moderada por Ramon López de Mantaras (CSIC), con la participación de Carme Torras (CSIC), Tom Dietterich (Oregon State University) y el propio Gottlob. Se han abordado los retos científicos, éticos y sociales de la IA, incluyendo la necesidad de una gobernanza democrática y la transparencia en la investigación.
Normas de participación
Esta es la opinión de los lectores, no la de este medio.
Nos reservamos el derecho a eliminar los comentarios inapropiados.
La participación implica que ha leído y acepta las Normas de Participación y Política de Privacidad
Normas de Participación
Política de privacidad
Por seguridad guardamos tu IP
216.73.216.123