La rápida incorporación de la inteligencia artificial (IA) en la investigación dental, oral y craneofacial está transformando tanto la práctica clínica como la producción científica, al tiempo que plantea importantes desafíos éticos. Así lo subraya una reciente declaración de política publicada este mes de abril por la International Association for Dental, Oral, and Craniofacial Research (IADR, Asociación Internacional para la Investigación Dental, Oral y Craneofacial) y la American Association for Dental, Oral, and Craniofacial Research (AADOCR, Asociación Estadounidense para la Investigación Dental, Oral y Craneofacial), que establece directrices para su uso responsable.
La IA ya se aplica en ámbitos como el análisis de imágenes para la detección precoz de enfermedades, la predicción de resultados terapéuticos, la planificación personalizada de tratamientos y el análisis masivo de datos epidemiológicos. Incluso ha comenzado a utilizarse en la redacción y revisión de artículos científicos. Este avance, sin embargo, exige un marco ético sólido que garantice la protección de pacientes y la integridad de la investigación.
Entre los principios fundamentales que deben regir el uso de la IA destacan la transparencia, la responsabilidad, la equidad, la privacidad y la supervisión humana. Los expertos de la IADR y la AADOCR insisten en que estas tecnologías deben ser comprensibles e interpretables tanto para investigadores como para clínicos y pacientes, y que deben complementar —no sustituir— el juicio profesional.
Uno de los pilares clave del documento es el respeto a los derechos de los pacientes y participantes en estudios. Se enfatiza la necesidad de un consentimiento informado claro, que explique el papel, los beneficios y las limitaciones de la IA. Además, se recomienda informar a los participantes si sus datos se reutilizan en nuevos análisis basados en estas tecnologías.
La protección de la privacidad y la seguridad de los datos es otro aspecto central. Las instituciones deben garantizar medidas estrictas de confidencialidad y cumplir con las normativas locales e internacionales. Asimismo, se advierte sobre los riesgos de sesgos algorítmicos, que podrían generar desigualdades si no se utilizan conjuntos de datos diversos y representativos.
El documento también reconoce que la IA, como herramienta analítica, presenta desafíos únicos debido a su escala y complejidad. Por ello, se exige que cumpla con los mismos estándares de rigor científico que otros métodos, incluyendo la reproducibilidad y la revisión ética. Además, se recomienda diferenciar claramente entre datos reales y aquellos generados por IA para evitar interpretaciones erróneas.
En cuanto a la gobernanza, la IADR y la AADOCR instan a gobiernos e instituciones a desarrollar marcos regulatorios sólidos. Estos deben incluir la validación rigurosa de los sistemas, la monitorización continua tras su implementación y la formación de profesionales en el uso ético de la IA. También se introduce un elemento cada vez más relevante: la sostenibilidad ambiental, promoviendo la reducción del consumo energético asociado a estas tecnologías.
La colaboración interdisciplinaria se presenta como un factor clave para abordar los retos éticos de la IA. La cooperación entre investigadores, clínicos, reguladores y desarrolladores tecnológicos permitirá armonizar criterios y reducir desigualdades en salud, especialmente en contextos con menos recursos.
Otro ámbito destacado es el uso de la IA en publicaciones científicas. Se establece que los autores deben declarar explícitamente su uso, garantizar la veracidad del contenido y evitar atribuir autoría a sistemas automatizados. Además, se subraya la importancia de mantener la confidencialidad en los procesos de revisión por pares.
Finalmente, el documento recalca la necesidad de cumplir con marcos regulatorios internacionales y estándares éticos globales. Este enfoque busca reforzar la confianza pública y asegurar que la innovación tecnológica avance de forma alineada con los valores fundamentales de la ciencia y la salud.