En Bolivia, el uso de inteligencia artificial para clonar voces humanas ha abierto un nuevo capítulo en el fenómeno de la desinformación, en el que ya no solo se manipulan textos o imágenes, sino también lo más íntimo y convincente: la voz.
La facilidad para crear audios sintéticos ha crecido con rapidez, según Eliana Quiroz, experta en temas de desinformación, “no se requiere gran conocimiento técnico, solo unas pocas muestras de la voz que se quiere clonar, una computadora y algo de tiempo para hacer pruebas”. La calidad de estos audios es cada vez más alta, especialmente cuando se utilizan versiones pagadas de estas herramientas. Su equipo realizó una prueba con la voz de un político boliviano y el proceso tomó menos de cinco minutos. La conclusión fue clara: es fácil, rápido y efectivo si existen suficientes audios disponibles públicamente.
Marcelo Blanco, periodista y verificador de hechos en Bolivia Verifica, explica que si bien existen herramientas, tanto gratuitas como de pago, para identificar si un audio fue generado por IA —como HIVE Moderation— ninguna ofrece una verificación totalmente confiable. Por eso, recomienda utilizar varias de estas herramientas y combinar su uso con métodos analíticos, como el análisis del tono, los silencios, las irregularidades en la pronunciación y el ruido ambiental. “La IA crea el audio tal cual tú le escribes las palabras en el prompt, no duda, no omite letras, y eso no es natural en una conversación real”, señala.
Blanco también advierte sobre un patrón común: la difusión de audios fuera de contexto, cuando un archivo llega sin explicación ni fuente, solo con un mensaje como “escuchen esto”, hay motivos para sospechar. “Muchas veces se trata de piezas diseñadas para generar impacto inmediato y viralizarse sin espacio para la verificación”, apunta.
Los riesgos legales y sociales de esta tecnología son amplios, un audio falso puede desencadenar consecuencias judiciales graves, incluso una condena, contra una persona que nunca pronunció esas palabras. “Esto puede derivar en una muerte civil o en el rechazo social hacia alguien que ni siquiera habló”, alerta Blanco. En su opinión, el principal mecanismo de defensa es una respuesta pública y legal sólida, respaldada por pruebas técnicas que demuestren que el audio no es auténtico. “Hoy, ni siquiera sirve desmentir por redes sociales (…) la gente necesita pruebas”, afirma.
Desde la perspectiva legal, el panorama es aún incierto, Eliana Quiroz indica que, aunque la Constitución boliviana reconoce la privacidad —en artículos como el 21— y existe una unidad de cibercrimen en la Policía, no hay un protocolo claro para tratar pruebas digitales como los audios sintéticos. Según explica, para que se inicie un peritaje oficial debe existir una denuncia formal y una orden fiscal. “Se podría recurrir a un habeas data, que es constitucional, pero el proceso penal sería más complejo porque no hay una tipificación clara”, detalla. La ausencia de una ley específica sobre protección de datos personales deja a las víctimas en una situación de vulnerabilidad.
Renan Estenssoro, director ejecutivo de la Fundación para el Periodismo, resalta que este contexto impone mayores exigencias éticas al trabajo periodístico. “No se debe difundir ninguna información, en audio o texto, cuyo contenido no esté debidamente verificado por el periodista”, afirma. Según Estenssoro, incluso si autoridades o colegas validan el contenido, el periodista debe comprobar por sí mismo su veracidad, de lo contrario, el medio corre el riesgo de convertirse en parte del conflicto o de ser percibido como un canal de propaganda. “La libertad de expresión también tiene límites (…) publicar información falsa puede derivar en un proceso penal”, advierte.
Para enfrentar estos desafíos, Estenssoro propone que los medios establezcan manuales de estilo con protocolos claros de verificación, y que sus periodistas actualicen sus conocimientos continuamente, la Fundación que dirige sugiere al menos 80 horas de formación por año. En su criterio, el fortalecimiento de las capacidades periodísticas es fundamental para mantener la confianza del público.
El impacto de los audios falsos también se siente en la percepción ciudadana, Quiroz observa que en contextos de alta polarización política o crisis económica, donde la ansiedad y la búsqueda de información aumentan, los audios sintéticos pueden circular con más fuerza y credibilidad. “En esos momentos, cualquier mensaje alarmante se vuelve más creíble”, señala. Ante ello, destaca la necesidad de alfabetización digital, que permita a la ciudadanía desarrollar sentido crítico y herramientas para identificar contenidos sospechosos.“Debería haber una política estatal que cubra todo el país”, propone.
En este nuevo escenario, la voz —uno de los elementos más personales e identificables del ser humano— puede ser replicada sin consentimiento y difundida sin contexto, la inteligencia artificial ha transformado no solo la manera de crear contenido, sino también los riesgos asociados a su circulación.
Periodistas, medios, autoridades y ciudadanía enfrentan ahora el reto de adaptarse a esta tecnología sin dejar de lado la veracidad, la ética y la protección de derechos fundamentales. Mientras tanto, los audios falsos seguirán apareciendo, desafiando la credibilidad de las fuentes, alterando la percepción pública y exponiendo la fragilidad de los marcos legales existentes.
La diferencia entre una voz real y una voz fabricada puede ser difícil de detectar para el oído humano, debido al avance de las tecnologías de inteligencia artificial que generan audios cada vez más precisos. En la actual era de la desinformación, distinguir entre lo auténtico y lo generado por inteligencia artificial requiere tanto herramientas técnicas como una atención crítica por parte de la sociedad.