Estafadores ya usan inteligencia artificial, advierten por modus operandi

Entre lo utilizado, hay un programa para analizar la voz de una persona y así buscar entre los patrones un tono similar al suyo

 

De acuerdo con reportes realizados por medios de Estados Unidos, los estafadores han utilizado nuevas medidas para cometer sus atracos, e incluso, han comenzado a utilizar chatbots para hacerse pasar por personas reales y manipular a las víctimas.

The Washington Post declaró que una pareja de ancianos recibió una llamada telefónica de quien dijo ser su nieto; los adultos mayores aseguraban que tenía la misma voz que él. El supuesto nieto les contó que estaba en la cárcel sin billetera ni teléfono celular y necesitaba dinero con urgencia. 

De inmediato, los abuelos acudieron al banco a retirar la cantidad solicitada; sin embargo, el gerente les advirtió que habían visto un caso similar que resultó ser una estafa. En ese otro caso, también habían afirmado ser un pariente mediante la manipulación de su voz.

Entre lo utilizado, hay un programa para analizar la voz de una persona y así buscar entre los patrones un tono similar al suyo, además de imitar los acentos para luego recrearlos.

Entre las sugerencias para evitar ser víctima de este tipo de delitos es identificar el número telefónico de la llamada entrante antes de contestar y no compartir información personal o familiar si no se reconoce el número.