Una nueva y preocupante tendencia viral en TikTok, conocida como la broma del “hombre sin hogar con IA” (AI homeless man prank), ha obligado a los departamentos de policía de Estados Unidos y otros países a emitir advertencias públicas. La práctica, que aprovecha el realismo de los modernos generadores de Inteligencia Artificial (IA), está provocando pánico innecesario y mal uso de los servicios de emergencia.
PUBLICIDAD
Lee también: Estos anime casi se arruinaron por completo por una decisión tonta de sus protagonistas
La broma se basa en un concepto simple: Los participantes toman una foto dentro de sus casas (cerca de la puerta, en la cocina o en el sofá).

Utilizan herramientas de IA (como Google Gemini o filtros de Snapchat/CapCut) para insertar la imagen de una persona sin hogar en la foto, haciendo que parezca que está sentada, comiendo o revisando el lugar. El joven envía la imagen con un mensaje alarmante (ej. “¡Hay un hombre en casa y no se quiere ir!”) a un padre, amigo o familiar, y graba su reacción para publicarla en redes sociales en busca de “clics” y “likes”.
La alarma del 911 y los riesgos reales
El problema principal de esta tendencia es la convincente autenticidad de las imágenes generadas por IA. Los destinatarios del mensaje, al creer que su hijo o ser querido está en una situación de peligro real por un allanamiento de morada, llaman inmediatamente a la policía.
Las autoridades han señalado que esto tiene múltiples consecuencias negativas:
- Mal uso de recursos: La policía debe responder a las llamadas como si fueran un robo o un allanamiento en curso, desviando “valiosos recursos desplegables” que podrían ser necesarios para una emergencia genuina.
- Situaciones de peligro: Los oficiales acuden a la escena sin saber que se trata de un engaño. El tratamiento de una falsa alarma como una intrusión real crea situaciones potencialmente peligrosas.
- Deshumanización: La broma también ha sido criticada por su mal gusto y por deshumanizar a las personas en situación de calle al convertirlas en el elemento atemorizante de un meme viral.

Departamentos de policía, incluyendo el de Salem, Massachusetts, han solicitado a los jóvenes que pongan fin a la práctica, citando leyes que penalizan la comunicación maliciosa de información falsa a los puntos de respuesta de seguridad pública. Este es el ejemplo más reciente de cómo la proliferación de imágenes ultra-realistas generadas por IA se está utilizando para crear hoaxes y falsas alarmas en el mundo digital.