María Isabel Montserrat Sánchez-Escribano, es profesora Titular de Derecho Penal en la Universitat de les Illes Balears (UIB), donde desarrolla su actividad docente e investigadora en el ámbito del Derecho público, con especial atención al impacto de las nuevas tecnologías sobre el ordenamiento jurídico.
Su trabajo académico se orienta al análisis jurídico de fenómenos como Internet y la sociedad digital, la inteligencia artificial, la protección de datos, la ciberseguridad y los retos normativos que plantea la transformación digital en las administraciones públicas y del sector público en general. En este contexto, aborda cuestiones relacionadas con la regulación del uso de algoritmos, la toma de decisiones automatizada, las garantías de los derechos fundamentales en entornos digitales y el papel del Derecho penal ante la innovación tecnológica.
Como docente, participa en asignaturas y actividades formativas vinculadas al Derecho penal y al Derecho de las tecnologías, contribuyendo a formar profesionales capaces de entender y aplicar el marco jurídico en entornos digitales complejos. Su investigación y divulgación se enmarca en el debate actual sobre cómo el Derecho puede dar respuesta a los desafíos éticos, jurídicos e institucionales derivados del desarrollo tecnológico.
1. La delincuencia informática evoluciona mucho más rápido que la normativa. En un contexto en el que hasta los ataques cibernéticos han afectado a las instituciones de las islas, ¿cuál dirías que es hoy el reto más urgente para el derecho penal?
Desde el punto de vista del derecho penal que denominamos substantivo, no partimos de un vacío normativo. Existen instrumentos jurídicos relevantes para hacer frente a la delincuencia informático, como el Convenio del Consejo de Europa sobre la ciberdelincuencia, realizado en Budapest el 23 de noviembre de 2001, que continúa siendo el principal marco internacional en la materia, y en el ámbito de la Unión Europea, la Directiva 2013/40/UE del Parlamento Europeo y del Consejo, de 12 de agosto de 2013, relativa a los ataques contra los sistemas de información y por la que se sustituye la Decisión marco 2005/222/JAI del Consejo.
Estos instrumentos fueron trasladados al ordenamiento jurídico español a través de la reforma del Código Penal operada por la Ley Orgánica 1/2015, de 30 de marzo, que actualizó y amplió de manera significativa los tipos penales vinculados a los delitos informáticos. Estos instrumentos han permitido tipificar conductas nuevas, reforzando ya las existentes para adaptarlas a los retos tecnológicos y establecer un mínimo común denominador en la persecución penal de los ciberdelitos.
De todas maneras, el reto más urgente hoy para el derecho penal no es tanto la falta normas substantivas como su efectividad real en un entorno que es estructuralmente transfronterizo, altamente técnico y extremadamente dinámico. Identificar los autores, atribuir responsabilidades y coordinar investigaciones que dependen de infraestructuras, datos y actores situados fuera de la jurisdicción nacional continúa siendo el principal cuello de botella. En la práctica, muchos procedimientos se encuentran limitados a estos ámbitos, hecho que obliga a poner el acento en las políticas preventivas de ciberseguridad y ciberresiliencia.
2. En muchas informaciones de prensa local sobre ciberataques se señala frecuentemente un origen ruso de los atacantes. ¿A qué se debe esta atribución? ¿Qué elementos técnicos, jurídicos o de inteligencia permiten identificar – o si cabe, sólo inferir – el origen del ciberataque, y hasta qué punto esta información es fiable?
Atribuir el origen de un ciberataque es difícil porque existen técnicas de camuflaje y “false flag” (infraestructura alquilada, proxies, lenguaje y horarios simulados, reutilización deliberada del código, etc.). La comunidad técnica y de inteligencia suele combinar indicadores técnicos (IOC): IPs, dominios, certificados, “hashes” de malware, patrones de comando y control y TTPs (técnicas, tácticas y procedimientos): manera de entrar, moverse lateralmente, exfiltrar, cifrar, extorsionar. Este “modus operandi”, a menudo es más informativo que un indicador puntual, inteligencia contextual: objetivos, selección de víctimas, idiomas, husos horarios, coincidencias con campañas conocidas.
La fiabilidad diaria. La atribución técnica puede ser fuerte a nivel de campaña (similitudes consistentes), pero la atribución jurídica y política (señalar un Estado o actor en concreto como responsable) es un paso diferente, con umbrales probatorios y consecuencias diferentes. A nivel europeo se reconoce explícitamente que la atribución política es una decisión soberana y caso por caso. Por eso, cuando la prensa me dice “origen ruso”, se trata a menudo de una inferencia basada en patrones y campañas previas, no una “prueba” de autoría individual.
3. Cuando una decisión que afecta a una persona es adoptada mediante un algoritmo; por ejemplo, el inicio de una inspección tributaria, la denegación de un crédito o de una ayuda social, ¿qué derechos tiene esta persona para exigir a la institución información sobre los criterios, las variables o la lógica utilizada por el sistema? ¿Cómo se puede hacer efectivo, en la práctica, este derecho a la transparencia y a la explicabilidad algorítmica? Y, ¿cómo evitamos la discriminación de colectivos vulnerables?
Si una decisión con efectos jurídicos o impacto significativo se basa exclusivamente en el tratamiento automatizado, el marco clave es el RGPD, concretamente el artículo 22, que reconoce el derecho a no ser objeto de este tipo de decisiones con determinadas excepciones y garantías. En la práctica, los derechos se concretan en información “significativa” sobre la lógica aplicada y las consecuencias previstas (en el marco de los deberes de información y acceso), sobre todo en lo que hace referencia a la intervención humana, la posibilidad de expresar el punto de vista e impugnar la decisión cuando sea aplicable (garantías habitualmente asociadas al artículo 22 RGPD).
En este marco se añade ahora el Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, por el que se establecen las normas armonizadas en materia de inteligencia artificial (RIA o AI Act). Este reglamento introduce obligaciones específicas de transparencia, trazabilidad, supervisión humana y gestión de riesgo, especialmente en el caso de los sistemas de IA calificados de alto riesgo, entre los que se incluyen determinados sistemas utilizados por administraciones públicas, en ámbitos como la selección, avaluación o adopción de decisiones que pueden afectar a los derechos fundamentales.
En la práctica, esto refuerza el derecho de las personas a recibir información clara y comprensible sobre el uso de estos sistemas, a exigir mecanismos de revisión humana efectiva y a reclamar garantías adicionales para prevenir sesgos y discriminaciones, especialmente cuando se trata de colectivos vulnerables. El Reglamento de IA no sustituye el RGPD, sino que lo complementa, ampliando las obligaciones de las instituciones y organizaciones que diseñan o usan sistemas algorítmicos con impacto jurídico o social relevante.
4. En las Islas Baleares conviven muchas administraciones pequeñas (ayuntamientos, consejos, empresas públicas), con recursos desiguales. ¿Crees que esta fragmentación institucional hace más difícil protegerse ante ciberataques y aplicar protocolos de seguridad homogéneos?
Sí. La fragmentación institucional, con muchos entes pequeños que disponen de niveles de madurez muy desiguales, tiende a generar asimetrías importantes de capacidad, tanto por lo que hace referencia a equipos técnicos como la monitorización y respuesta ante incidentes, así como una elevada heterogeneidad de proveedores. Resulta muy importante la homogeneización de controles básicos de seguridad, como las copias de seguridad, la autentificación multifactor, la segmentación de redes o la gestión de vulnerabilidades, así como la formación de las personas para evitar prácticas por desconocimiento como de la de shadow IT.
Ante esta realidad, la respuesta más realista pasa por avanzar hacia servicios compartidos, como pueden ser centros de operaciones de seguridad (SOC), mecanismos de contratación centralizada, catálogos comunes de controles y una respuesta coordinada de los incidentes, junto con una exigencia de cumplimiento coherente con los estándares públicos de seguridad, como la lógica del Esquema Nacional de Seguridad, y con las obligaciones que se derivan progresivamente del ecosistema europeo, como por el ejemplo NIS2.
5. Las Islas Baleares dependen mucho del sector turístico, que a menuda gestiona grandes volúmenes de datos personales. ¿Qué riesgos específicos ve en este sector y cómo debería adaptarse la regulación para proteger mejor a visitantes y personal laboral?
El sector turístico gestiona volúmenes muy relevantes de datos de alto valor – datos significativos, de contacto, de pago, preferencias o información de movilidad – y me consta que, de manera creciente, muchas empresas del sector en las Islas Baleares están incorporando buenas prácticas en materia de protección de datos y seguridad digital. Aun así, continúa siendo un ámbito especialmente expuesto a determinados riesgos, como las incidencias en las cadenas de suministro tecnológico (sistemas de gestión hotelera, channel managers, CRM o centros de atención telefónica), campañas de phishing y robo de credenciales – sobre todo en periodos de máxima actividad y elevada rotación de personal – o intentos de ex filtración y extorsión mediante ataques de ransomware.
En este contexto, diría que el aspecto más importante actualmente es formar a todo el personal en ciberseguridad, especialmente para detectar y prevenir ciberataques. Creo que hoy en día, las empresas en general deben estar muy alerta, y elevar los niveles de seguridad exigible tanto en la contratación de servicios como en la relación con terceros. También es muy importante tener en cuenta y cumplir de una manera firme las obligaciones derivadas del RGPD, sobretodo en este ámbito, tener en cuenta las obligaciones derivadas del tratamiento y en los límites de conservación de datos.
6. ¿Qué errores habituales ve en pequeñas empresas de las Islas Baleares en lo que respecta a la protección de datos y seguridad digital?
Me permitirán que, como soy profesora, insista en la formación, pero la experiencia me muestra que muchas empresas todavía no forman adecuadamente a su personal en ciberseguridad, y esto queda reflejado en una serie de errores que se repiten con frecuencia. Es muy importante, para formar al personal, especialmente en administración y contabilidad, porque a menudo son los objetivos más directos de los ciberdelincuentes.
Desde una punto de vista técnico, entre los errores más habituales, está la ausencia de autentificación multifactor en el correo electrónico y en el sistema clave, que no se hacen copias de seguridad o se hacen muy pocas, – añadiendo llevarse dentro una mochila cada día con el disco duro con la copia -, contraseñas débiles, falta de actualizaciones en los sistemas, un inventario completo de los activos digitales, así como el otorgamiento de permisos excesivos y el uso compartido de cuentas de usuario. A eso se añade la falta de planes de respuesta a incidentes, de manera que cuando se produce una brecha de seguridad, la reacción es complicada.
7. ¿Qué impacto está teniendo la irrupción de la IA en el fraude académico? ¿Cuál es su posicionamiento al respecto, y cómo se puede aprovechar esta ola positivamente?
El impacto de la inteligencian artificial generativa en la fraude académico es real e innegable, ya que estas herramientas facilitan la producción de textos y soluciones con una apariencia formalmente correcta y plausible, lo que ha reabierto con fuerza el debate sobre el diseño de las pruebas de evaluación y la garantía de la integridad académica. La investigación reciente pone de manifiesto tanto los riesgos que esto comporta para la credibilidad del sistema educativo como la aparición de nuevas prácticas de evaluación adaptadas a este nuevo contexto tecnológico.
Desde mi punto de vista, no considero problemático que el alumnado utilice la inteligencia artificial como herramienta de apoyo, siempre que se haga un uso consciente y crítico de la misma. Esto implica, por un lado, ser plenamente consciente del riesgo de alucinaciones o errores que pueden generar estos sistemas y, por otro, garantizar que los trabajos académicos incorporen un proceso creativo e intelectual original atribuible al autor, y no una mera reproducción automatizada de contenidos. Por este motivo, no resulta sostenible confiar únicamente en mecanismos de detección del fraude.
La respuesta más sólida pasa por un replanteamiento de la evaluación, mediante el rediseño de las tareas para que incorporen procesos, versiones sucesivas, defensas orales o evidencias del trabajo realizado, así como por la introducción de evaluaciones orales o “vivas” en momentos clave, especialmente cuando se trata de valorar competencias de análisis, razonamiento y aplicación. A ello debe añadirse una apuesta clara por la alfabetización en inteligencia artificial, que permita enseñar usos legítimos y responsables de estas herramientas —como la generación de ideas, la elaboración de esquemas, la comprobación de resultados o la mejora del estilo— y, al mismo tiempo, exigir transparencia en su uso mediante la declaración de las herramientas y de los prompts utilizados cuando sea pertinente. En mi caso, lidero un proyecto de innovación docente con esta finalidad concreta.
8. La UNESCO ha publicado recientemente las primeras directrices sobre neurotecnología, un ámbito que hasta ahora estaba regulado principalmente dentro del sector de la salud. Sin embargo, dispositivos de uso cotidiano como auriculares o relojes inteligentes pueden captar datos biológicos y fisiológicos altamente sensibles, capaces de inferir pensamientos, emociones o reacciones. ¿Cuál podría ser el alcance y los riesgos de un uso inadecuado de estos datos por parte de empresas, gobiernos u otros actores?
Efectivamente, la UNESCO ha adoptado recientemente (en noviembre, si no me equivoco) el primer estándar normativo global sobre la ética de la neurotecnología, advirtiendo de los riesgos que estas tecnologías pueden suponer para derechos fundamentales especialmente sensibles, como la privacidad mental y la libertad de pensamiento, sobre todo en un contexto en el que dispositivos de uso cotidiano son capaces de captar datos biológicos y fisiológicos con un alto potencial inferencial.
Desde mi punto de vista, un uso inadecuado de estos datos puede facilitar prácticas de perfilado y manipulación, permitiendo inferir emociones y utilizar esta información para segmentar, influir o discriminar a personas o colectivos, aunque también debo señalar que todas estas prácticas están prohibidas por el RIA. A ello se suma el problema de un consentimiento a menudo débil o meramente formal, ya que muchos de estos datos se generan o recogen de manera poco consciente por parte de los usuarios, como ocurrió en el caso del escaneo del iris.
Los riesgos se extienden también a posibles usos por parte de actores públicos o privados en ámbitos como la vigilancia, la selección de personal, los seguros, el crédito, la educación o el control social, así como a la aparición de nuevas brechas de equidad, dado que el elevado coste de estas tecnologías y la concentración de la innovación pueden acentuar desigualdades sociales y económicas ya existentes. No obstante, debo señalar que las empresas y la Administración son actualmente los actores que más medidas están implementando precisamente para cumplir con el RIA, de modo que muchos de estos riesgos están disminuyendo de forma significativa.
9. En casos de error, mal funcionamiento o ataque (técnico o cibercriminal) de un sistema de IA, ¿quién debería ser considerado responsable legalmente: el desarrollador, el usuario, la organización que lo implementa u otro actor?
No existe una respuesta fácil ni única: depende del tipo de daño producido, del papel de cada actor y del régimen jurídico aplicable (civil, penal, de consumo, entre otros). En términos operativos, el desarrollador puede responder por defectos de diseño; la empresa u organización implementadora, por un despliegue negligente, por la falta de controles adecuados o por un uso del sistema fuera de las especificaciones previstas; y terceros, como proveedores o integradores, en función de lo que establezcan los contratos y de sus deberes de diligencia. También debe contemplarse la posibilidad de un mal uso por parte del usuario, por ejemplo cuando el sistema se utiliza fuera de los casos de uso definidos por el diseñador. En el ámbito público, además, entran en juego estándares específicos de motivación, proporcionalidad, control y revisión, que condicionan la atribución de responsabilidades.
10. Es legal, normativo o ético que un sistema de inteligencia artificial (virtual o físico) esté diseñado de tal manera que un ser humano no pueda distinguir si está interactuando con una máquina o con otra persona real?
En general, el movimiento regulatorio europeo va en la dirección contraria: imponer obligaciones de transparencia. El RIA establece que los sistemas destinados a interactuar con personas deben informar de que el usuario está interactuando con una IA, salvo que ello resulte evidente por el contexto.
Desde el punto de vista ético, el problema central es la decepción (afecta a la autonomía, la confianza y el consentimiento). Jurídicamente, además del RIA, pueden entrar en juego normas de consumo y de prácticas desleales si la confusión se utiliza para influir en decisiones económicas.
En cualquier caso, para mí el problema principal es la pérdida de confianza que se produce cuando las personas no saben si están interactuando con un ser humano o con un sistema automatizado. Esto resulta especialmente visible en las redes sociales, como en los comentarios de Instagram, donde cada vez es más difícil distinguir entre interacciones genuinas y contenidos generados o amplificados por sistemas de inteligencia artificial, lo que erosiona la credibilidad del espacio público digital y alimenta la desconfianza entre usuarios. Precisamente para evitar este efecto, el Reglamento europeo de inteligencia artificial (AI Act) establece obligaciones de transparencia, imponiendo que los sistemas destinados a interactuar con personas informen claramente de que el usuario está interactuando con una IA, salvo que ello sea evidente por el contexto.
11. ¿Podría recomendar alguna película relacionada con las temáticas tratadas en esta entrevista?
Pues recomendaría Ex Machina (2014), una película sobre identidad, engaño y responsabilidad.
12. ¿Podría recomendar algún libro?
Aquí tengo uno muy claro: Click Here to Kill Everybody, de Bruce Schneier, sobre seguridad y sociedad hiperconectada.
