Estafas en redes sociales con avatares medicos falsos generados por inteligencia artificial
Investigadores de seguridad como ESET Latinoamérica y Kaspersky han alertado sobre una campaña de desinformación en TikTok e Instagram, donde se utilizan avatares generados con inteligencia artificial (IA) para simular médicos, nutricionistas o especialistas en medicina estética. Estos personajes falsos ofrecen consejos de salud basados en argumentos pseudocientíficos para recomendar suplementos o productos “milagro” como tratamientos legítimos, sin respaldo médico[1][3][5].
¿Cómo funcionan estos estafadores?
Avatares generados con IA
Los avatares se generan mediante aplicaciones como Captions, permitiendo personalizar rostros, gestos y textos. Los estafadores ingresan cualquier enunciado para que la figura lo recite, facilitando la adaptación a diversos perfiles (nutrición, medicina estética, etc.)[3][5]. Esto ha llevado a la creación de más de 20 cuentas en TikTok e Instagram, principalmente en Latinoamérica, donde se explotan situaciones como la pérdida de peso o el rejuvenecimiento para vender suplementos[3][7].
Diseño de contenido
Los videos siguen un formato repetitivo donde los avatares destacan beneficios de productos, como la pérdida de peso o el rejuvenecimiento, vinculando a enlaces externos como Amazon, donde los productos reales suelen ser “gotas de relax”, “anti-hinchazón” u otros sin validación científica[3][5]. Un ejemplo concreto es un video que promovió un extracto natural como alternativa al medicamento Ozempic (usado para la obesidad), pero el enlace dirige a un producto no relacionado[3].
Ejemplos concretos
- Promoción de suplementos: Los avatares aseguran que ciertos productos son más efectivos que tratamientos aprobados médicamente. Por ejemplo, un producto promocionado como superior al Ozempic resultó ser “gotas de relax” en Amazon[3].
- Uso de aplicaciones: La aplicación Captions facilita la creación de estos avatares y permite a los estafadores personalizar el contenido con facilidad[3][5].
Ámbito y alcance
Esta campaña ha sido detectada en más de 20 cuentas en TikTok e Instagram, principalmente en Latinoamérica. La estrategia busca explotar la confianza en figuras de autoridad (médicos vestidos con bata blanca) para convencer a los usuarios de comprar productos[1][3][5]. Además, el alcance es amplio debido a que muchos usuarios confían en recomendaciones de “expertos” en redes sociales, lo que facilita la difusión del contenido engañoso.
Riesgos y preocupaciones
-
Salud pública: Los productos promovidos carecen de aprobación regulatoria y podrían ser peligrosos. Además, se normalizan autodiagnósticos o remedios no validados[3][5]. Visita la página de la Organización Mundial de la Salud (OMS) para más información sobre seguridad médica.
-
Manipulación emocional: El contenido apela a inquietudes como el peso o la salud mental, usando técnicas de mercadeo engañosas para fomentar compras impulsivas[1][5]. Mira este artículo sobre técnicas de manipulación.
-
Tendencias dañinas: Investigadores como Amnesty International han señalado que TikTok prioriza interacciones, lo que facilita la viralización de contenido nocivo, especialmente entre jóvenes[2][4]. Sigue las actividades de Amnesty International aquí.
Recurrencias de seguridad
Empresas como Kaspersky advierten que las deepfakes ya no son herramientas solo de entretenimiento, sino que se usan en fraudes a gran escala, incluyendo chantajes o estafas financieras. ESET Latinoamérica recomienda verificar la autenticidad de los perfiles y evitar clic en enlaces sospechosos[3][5]. Descubre más sobre seguridad informática en Kaspersky.
Consejos para usuarios
- Verificar autenticidad: Antes de confiar en recomendaciones médicas en redes sociales, verifica si el contenido está etiquetado como generado por IA y si el perfil tiene credenciales reales[6].
- No compartir contenido no verificado: Si encuentras un video o publicación sospechosa, no la compartas hasta verificar su origen[3].
- Denunciar contenido engañoso: Denuncia publicaciones que promuevan información falsa o engañosa a la plataforma correspondiente[6]. Lee este artículo sobre cómo denunciar contenido en redes sociales.
Conclusión
Esta campaña demuestra cómo la IA se emplea para suplantar profesionales de salud, explotando la credibilidad visual de los avatares. Las autoridades y plataformas deben implementar filtros más estrictos para mitigar estos riesgos, mientras los usuarios deben ser cautelosos al confiar en recomendaciones médicas en redes sociales[1][3][5]. Visita este artículo sobre aplicación de IA en marketing y otro sobre seguridad en redes sociales.
Señales de alerta
Para identificar contenido engañoso creado con IA, busca las siguientes señales:
- Desincronización de la boca y labios.
- Expresiones faciales poco naturales o rígidas.
- Artefactos visuales y distorsiones.
- Voz robótica o artificial.
- Cuentas de reciente creación con pocos seguidores.
- Lenguaje exagerado o llamados a la urgencia[3].
**Créditos**
**Autor**: [Redacción Niixer](https://niixer.com/index.php/author/niixer/)
**Editor**: [Johan Felipe Báez](https://niixer.com/index.php/author/jbaezm/)
**Referencias**
-
Rojas García, D. A. (2025, abril 9). Médicos falsos en TikTok: agencia de seguridad alertó sobre cómo se realiza este engaño. Semana. https://www.semana.com/tecnologia/articulo/medicos-falsos-en-tiktok-agencia-de-seguridad-alerto-sobre-como-se-realiza-este-engano/202556/
-
ESET. (2025, abril 10). Deepfakes en TikTok difunden desinformación médica con avatares creados con IA. https://www.eset.com/py/acerca-de-eset/sala-de-prensa/comunicados-de-prensa/articulos-de-prensa/deepfakes-en-tiktok-difunden-desinformacion-medica-con-avatares-creados-con-ia/
-
WeLiveSecurity. (2025, abril 9). Deepfakes en TikTok difunden desinformación médica con avatares falsos de profesionales de la salud. https://www.welivesecurity.com/es/estafas-enganos/deepfakes-tiktok-falsos-profesionales-salud-medico/
-
SinEmbargo. (2025, abril 12). Estafadores crean avatares médicos en TikTok. https://www.sinembargo.mx/4639677/estafadores-crean-avatares-medicos-en-tiktok-desinforman-y-venden-productos-milagro/
-
Proceso. (2025, abril 11). Alertan de nueva estafa que utiliza IA para recomendar medicamentos y consejos de salud falsos. https://www.proceso.com.mx/ciencia-tecnologia/salud/2025/4/11/alertan-de-nueva-estafa-que-utiliza-ia-para-recomendar-medicamentos-consejos-de-salud-falsos-349187.html
-
TikTok. (2025). Acerca del contenido generado por IA. Centro de ayuda de TikTok. https://support.tiktok.com/es/using-tiktok/creating-videos/ai-generated-content