El reportaje de hoy en The New York Times —firmado por Steven Lee Myers, Alice Callahan y Teddy Rosenbluth— pone el dedo en la llaga: estafadores están usando inteligencia artificial para fabricar videos y anuncios con “médicos” que recomiendan curas que no existen. El truco es nuevo, el guion no: autoridad prestada, promesas absolutas y ninguna evidencia.
Lo inquietante es que el anzuelo ya no son actores genéricos, sino rostros y voces que aparentan —o directamente suplantan— a profesionales de la salud. Investigadores de ESET en América Latina documentaron campañas en TikTok e Instagram con avatares generados por IA que se presentan como ginecólogos, nutriólogos o cirujanos para vender suplementos y “tratamientos” dudosos. La OCDE llegó a catalogar este patrón como un “incidente de IA” por el daño directo que puede causar.
Casos concretos sobran. En Australia, médicos de alto perfil han sido falsificados para promocionar píldoras milagro contra la diabetes y el sobrepeso, en anuncios que denigran la evidencia científica y empujan a abandonar terapias validadas. El episodio llegó a la televisión pública: una presentadora fue brevemente engañada por un deepfake de un médico conocido, lo que ilustra cuán verosímiles son ya estas piezas.
El ecosistema que permite este fenómeno combina tecnología barata y reglas laxas. Un estudio reciente del Icahn School of Medicine at Mount Sinai mostró que los chatbots de uso general son especialmente vulnerables a repetir y hasta ampliar información médica falsa: sin salvaguardas, se convierten en amplificadores involuntarios. Y si el usuario llega a esa “consulta” después de ver videos virales, el sesgo de confirmación hace el resto. No es casualidad que, en investigaciones previas sobre TikTok, hasta 81% de los “remedios” contra el cáncer fueran falsos.
Reguladores y organismos de salud empiezan a reaccionar, aunque a destiempo. La OMS ha publicado lineamientos para un uso responsable de la IA en salud y, en Europa, subraya que la tecnología puede ayudar a gestionar la infodemia solo si se rige por principios éticos robustos. En EE. UU., la FDA ha emitido cartas de advertencia contra fraudes sanitarios y guías para software y dispositivos con IA; son pasos necesarios, pero aún insuficientes frente a “curas” que se disfrazan de consejos médicos en redes sociales. En paralelo, la FTC reporta un incremento de más de cuatro veces en denuncias por estafas de suplantación —un paraguas bajo el que encajan estos deepfakes con bata blanca— y prepara acciones más agresivas contra engaños digitales.
¿Qué hacer entonces? Primero, exigir trazabilidad técnica. La UIT (agencia de la ONU) impulsa estándares de autenticación multimedia y marcas de agua para vídeo. Esa capa de procedencia —como C2PA o equivalentes— debe ser obligatoria en anuncios de salud y en contenidos etiquetados como consejo médico. Sin verificación de origen, lo que vemos puede no ser real.
Segundo, pedir controles de admisión a las plataformas. Si una pieza de contenido promete tratar enfermedades o modificar conductas clínicas, las redes deberían exigir verificación de licencia profesional (con APIs a padrones nacionales) y “enfriar” el alcance de cualquier publicación que haga alegatos terapéuticos sin enlaces a evidencia revisada por pares o a registros de ensayos clínicos. La experiencia del comercio electrónico con sellos de vendedor verificado puede y debe trasladarse al terreno sanitario.
Tercero, actuar desde la clínica. Colegios médicos y hospitales necesitan sellos de autenticidad digitales —canales oficiales, firmas criptográficas, políticas claras de presencia en redes— y protocolos de respuesta rápida cuando sus profesionales sean suplantados. El daño reputacional no es abstracto: ya hay ejemplos de pacientes que, tras ver deepfakes, dejaron tratamientos probados para probar suplementos.
Cuarto, alfabetización para pacientes. Tres pruebas sencillas: (1) desconfíe de “curas” totales, rápidas y sin efectos secundarios; (2) busque el registro profesional del “médico” (p. ej., NPI en EE. UU. o sus equivalentes locales) y que haya huella consistente (sitio institucional, publicaciones, ORCID); (3) pida siempre la fuente de la evidencia y verifique que exista un estudio clínico en bases como ClinicalTrials.gov o en revistas indizadas. Si no hay trazabilidad ni evidencia, es marketing, no medicina.
Finalmente, reconocer el dilema central que el Times subraya: la IA no inventó la charlatanería, pero sí la industrializó. Al multiplicar voces convincentes a costo marginal cero, convierte cada timeline en una sala de espera saturada de promesas mágicas. El antídoto es doble: infraestructura de autenticidad (estándares, verificación, sanción) y cultura de escepticismo informado. Toda innovación sanitaria —incluida la propia IA— merece una evaluación clínica rigurosa; todo lo demás es ruido disfrazado con bata. (eseeseleon@gmail.com)
Las opiniones expresadas son sólo responsabilidad de sus autores y son completamente independientes de la postura y la línea editorial de grietacero.com
