José Antonio López abrió la sesión estructurando su exposición en dos partes, comenzando por los avances de su estudio sobre prevención y predicción del comportamiento hacia los juegos de azar mediante inteligencia artificial. Su objetivo, explicó, es mejorar la evaluación del riesgo de juego problemático utilizando modelos de IA capaces de integrar factores como la impulsividad, la subjetividad, la cognición o la personalización del comportamiento.
Entre los desafíos detectados, subrayó la necesidad de garantizar la transparencia algorítmica para que la IA pueda comprender adecuadamente la experiencia de juego. Advirtió, además, del riesgo de que técnicas algorítmicas puedan emplearse para fomentar comportamientos excesivos, del potencial de sesgos que discriminen perfiles concretos y de la tensión entre la personalización comercial y la protección del jugador.
Sin embargo, junto a estos retos también emergen oportunidades. López destacó el papel de la IA predictiva para desarrollar herramientas de autocontrol más efectivas, así como su utilidad en estrategias de prevención primaria —evitar que el problema aparezca—, secundaria —detectar lo antes posible el riesgo— y terciaria —reducir daños y secuelas cuando el problema ya se ha manifestado—.
A continuación, Almudena Ruiz Iniesta invitó a ampliar la reflexión sobre el binomio riesgo–oportunidad. Comenzó recordando que los datos constituyen “el oro de nuestro tiempo” y el insumo indispensable para que la IA funcione. A partir de ahí, identificó tres grandes oportunidades para el sector del juego.
La primera, la detección temprana del juego problemático, una herramienta que beneficia a todos los actores: jugadores, operadores y reguladores. Para contextualizar su relevancia, citó una encuesta europea a adolescentes que mostraba que un 13,74% presentaba problemas de juego. La segunda oportunidad es la personalización responsable de la experiencia: sistemas capaces de identificar frustración o patrones de riesgo y ofrecer límites, pausas u otro tipo de ayudas adaptadas. La tercera reside en el combate del fraude, con sistemas que detecten bots, trampas o anomalías en los patrones de uso.
Tras las oportunidades llegó el análisis de los riesgos, también estructurado en tres áreas. En primer lugar, la personalización adictiva, dado que la IA puede optimizar la retención y favorecer conductas compulsivas: “los algoritmos no saben de ética”, recordó. En segundo lugar, la dependencia tecnológica, que puede dar lugar a falsos positivos y bloqueos erróneos, motivo por el cual sigue siendo imprescindible la supervisión humana. Por último, alertó del riesgo asociado al uso indebido de datos personales, ya que la IA necesita grandes volúmenes de información sensible, tanto personal como financiera.
Ruiz Iniesta cerró con una idea vertebral: el riesgo no está en la tecnología en sí misma, sino en su propósito. “La IA será una gran aliada, pero solo si decidimos que su objetivo no sea que juguemos más, sino que juguemos de forma responsable”.
18+ | Juegoseguro.es – Jugarbien.es