deepfakes – U Yotoch Chanboox Boox https://www.chanboox.com Sitio personal de Enrique Vidales Ripoll Sat, 01 Mar 2025 04:02:57 +0000 es hourly 1 https://wordpress.org/?v=6.7.2 82470160 La influencia de la IA en las elecciones de México: riesgos y oportunidades https://www.chanboox.com/2025/02/28/la-influencia-de-la-ia-en-las-elecciones-de-mexico-riesgos-y-oportunidades/ Sat, 01 Mar 2025 04:02:57 +0000 https://www.chanboox.com/?p=256892

Expertos advierten sobre los desafíos y beneficios del uso de inteligencia artificial en la democracia

Notipress.-  La inteligencia artificial comenzó a desempeñar un papel clave en los procesos electorales en todo el mundo, y México no es la excepción. Con miras a los comicios de 2024, la Fundación Friedrich Naumann y Eon Institute presentaron el informe “IA generativa y su influencia en las elecciones de México 2024”, un análisis que revela tanto los riesgos como las oportunidades que esta tecnología representa para la democracia.

El informe, presentado en un evento que reunió a especialistas en tecnología, política y género, destaca cómo el uso de IA puede impactar la desinformación, la violencia política y la transparencia en los procesos electorales. Siegfried Herzog, director general para América Latina de la Fundación Friedrich Naumann, subrayó la importancia de comprender estos efectos: “El uso correcto de estas herramientas podría promover la libertad y la participación democrática, pero un uso indebido puede ser un detrimento para la calidad democrática”.

Por su parte, el senador Rolando Zapata, presidente de la Comisión de IA del Senado, enfatizó la urgencia de establecer marcos normativos que regulen el impacto de esta tecnología en los comicios. “Los hallazgos aquí presentados nos alertan sobre el enorme potencial de la IA para manipular la información y la opinión pública. Debemos actuar con urgencia, pero también con optimismo”, señaló.

Hallazgos clave sobre el impacto de la IA en las elecciones

Según el informe, el uso malintencionado de la IA en el contexto electoral en México fue relativamente limitado hasta el momento. De los 44 casos identificados relacionados con elecciones, solo cinco obtuvieron una amplia cobertura en medios y redes sociales. Además, el uso de deepfakes fue mínimo, con la mayoría de los casos involucrando manipulaciones menos sofisticadas como shallowfakes o cheapfakes.

Uno de los fenómenos destacados es el Liar’s Dividend, un efecto en el que la desinformación no solo se propaga mediante contenido manipulado, sino también a través de afirmaciones falsas sobre la autenticidad de materiales legítimos. Esta dinámica plantea un reto adicional para los verificadores de información y los votantes.

Otro aspecto preocupante es el uso de IA para cometer delitos cibernéticos y actos de violencia política en razón de género. El informe documenta cuatro casos en los que la imagen de figuras públicas fue empleada para fraudes en línea, así como dos incidentes en los que se generó y difundió material íntimo no consensuado de candidatas.

Con respecto al ámbito institucional, se identificó una adopción temprana de IA en algunos tribunales electorales del país. Aunque su implementación sigue en una fase inicial, los expertos consideran que esta tecnología podría mejorar la eficiencia y transparencia de los procesos judiciales relacionados con elecciones.

Retos y soluciones para el uso responsable de la IA en la política

Tras la presentación del informe, un panel de especialistas discutió las implicaciones del uso de IA en los comicios. Entre los participantes estuvieron Daniela Mendoza, directora general de VerificadoMX; Lorenzo Córdova, profesor e investigador de la UNAM y expresidente del INE; Manuel Alejandro Guerrero, profesor investigador de la Universidad Iberoamericana; y Sol Sánchez Rabanal, oficial nacional de género en PNUD México.

Los especialistas abordaron la desinformación electoral y la violencia política en razón de género, destacando la importancia de la alfabetización digital y la regulación adecuada.

Desde una perspectiva de género, Sol Sánchez Rabanal advirtió sobre los sesgos presentes en los sistemas de IA y la necesidad de políticas públicas inclusivas: “La IA no es neutral; refleja los sesgos de quienes la diseñan y utilizan. Por eso, es crucial que las regulaciones y políticas públicas tengan un enfoque de género”.

En un contexto donde la tecnología avanza rápidamente, los expertos coincidieron en la urgencia de establecer marcos normativos sólidos y fomentar la cooperación entre gobiernos, empresas tecnológicas y sociedad civil. Como señaló el Senador Zapata: “El futuro de la democracia depende de cómo gestionemos hoy los desafíos y oportunidades que nos presenta la inteligencia artificial”.

]]>
256892
Melissa Fleming: El libro es el antídoto para el “brain rot” https://www.chanboox.com/2024/12/17/melissa-fleming-el-libro-es-el-antidoto-para-el-brain-rot/ Tue, 17 Dec 2024 23:17:57 +0000 https://www.chanboox.com/?p=250254

En una lección magistral sobre la restauración de la la integridad de la información en el Congreso Internacional de Editores, en Guadalajara (México), la responsable de comunicación de la ONU ofrece soluciones para luchar contra el deterioro intelectual que produce el sobreconsumo de contenidos basura.

En la era del infinito regateo por las pantallas y del sobreconsumo de contenidos de baja calidad y la desinformación, es urgente contar con una dieta informativa más saludable, periodismo preciso, publicaciones con ética e historias que nos eduquen e inspiren, asegura la secretaria general adjunta de Comunicación Global de las Naciones Unidas.

Melissa Fleming participó recientemente en el 34° Congreso Internacional de Editores, el cual se llevó a cabo en Guadalajara, Jalisco, y fue organizado por la Cámara Nacional de la Industria Editorial Mexicana (CANIEM).

Durante su ponencia magistral El poder de la publicación: Restaurar la integridad de la información, Flemming habló de la palabra del año de Oxford brain rot, que en español se traduciría como “deterioro intelectual”, la cual refleja una de las grandes crisis de la realidad actual.

El término define el contenido de baja calidad y poco valor que corre por las redes sociales e internet, así como el impacto negativo y el deterioro o corrosión mental o intelectual de una persona como resultado del consumo excesivo de esos contenidos.

El santuario de las bibliotecas

“¿Cuál es el poder del libro?”, cuestionó Melissa Fleming durante su ponencia. Los libros pueden cambiar el mundo y son el antídoto para contrarrestar el brain rot, ofreciendo profundidad, reflexión y priorizando los datos y hechos, indicó. Así, las bibliotecas son los santuarios y los libros la esperanza, destacó.

Los sitios de noticias falsas y deepfakes (ultrafalsos) generan desinformación tan convincente y personalizada, que incluso personas expertas en verificación de datos tienen dificultades para detectarla en tiempo real.

Esto está erosionando la confianza en las instituciones, en la ciencia y en los propios hechos, alertó la responsable de Comunicación de la ONU.

“No es de extrañar que tanta gente ya no sepa qué creer. En la ONU, llevamos mucho tiempo advirtiendo que este ecosistema de información es tóxico y está causando graves daños a nuestro mundo”, agregó.

En ese sentido, Melissa Fleming recordó que los Principios Globales de las Naciones Unidas para la Integridad de la Información, presentados en junio de 2024 por el Secretario General de la ONU, António Guterres, ofrecen una visión de un futuro diferente: en el que todos los actores sean responsables de la integridad de la información que publican; en el que los creadores de contenidos, la industria editorial y medios de comunicación ofrezcan contenidos fiables y oportunos; en el que las redes sociales realcen los hechos sobre las mentiras; y donde la información sea más precisa y confiable para tomar decisiones significativas sobre nuestras vidas y nuestro futuro.

Los libros pueden cambiar el mundo

Melissa Fleming también reflexionó sobre el poder del libro para educar, inspirar y alimentar el pensamiento crítico. Como ejemplo, citó su libro A Hope More Powerful Than the Sea (Una esperanza más poderosa que el mar), el cual cuenta la historia de supervivencia de Doaa, una refugiada siria que ayudó a amplificar las voces de personas refugiadas, restaurar la empatía, ilustrar una experiencia colectiva y abrir un espacio para debates significativos sobre una compleja crisis humanitaria.

“Las palabras impresas permanecen, generando empatía por una población grande y vulnerable de refugiados en todo el mundo”, mencionó la también periodista.

Por último, Melissa Fleming hizo un llamado a la industria editorial y medios de comunicación a asumir la responsabilidad por la integridad de la información que publican, redoblar la verificación de los hechos y mantener los más altos estándares editoriales, con el fin de restaurar los ecosistemas de información y a las mismas sociedades.

Asimismo, invitó a publicar voces diversas y en particular de grupos vulnerables que se encuentran en riesgo o que son incomprendidos. “Les insto a que den prioridad a los libros que cambiarán el mundo para mejor”, finalizó.

Boletín de prensa

]]>
250254
Meta podrá poner marcas de agua a videos generados por IA https://www.chanboox.com/2024/12/13/meta-podra-poner-marcas-de-agua-a-videos-generados-por-ia/ Fri, 13 Dec 2024 18:53:03 +0000 https://www.chanboox.com/?p=249909

Video Seal incorpora tecnología avanzada para rastrear el origen de videos generados por IA y resistir ediciones y compresiones comunes

Notipress.- La compañía dirigida por Mark Zuckerberg presentó Meta Video Seal, una nueva herramienta que permitirá incorporar marcas de agua imperceptibles en videos creados mediante inteligencia artificial (IA). Este avance tecnológico se suma a los esfuerzos globales por combatir el incremento de deepfakes, un problema que creció exponencialmente en los últimos años. De acuerdo con la plataforma de verificación de identidad Sumsub, entre 2023 y 2024, los deepfakes se cuadruplicaron a nivel mundial, representando el 7 % de todos los fraudes registrados en 2024.

El anuncio de esta tecnología se realizó este jueves 12 de diciembre, destacando que estará disponible como código abierto, lo cual facilitará su integración con software existente. Pierre Fernández, investigador en inteligencia artificial de Meta, destacó en una entrevista con TechCrunch la importancia de esta herramienta. “Desarrollamos Video Seal para brindar una solución de marca de agua de video más efectiva, particularmente para detectar videos generados por IA y proteger la originalidad”, explicó.

Características y avances tecnológicos de Meta Video Seal

Promete superar las limitaciones de otras herramientas similares, como SynthID de DeepMind o las soluciones de Microsoft, mediante la incorporación de tecnología diseñada específicamente para videos. Entre sus características más destacadas, se encuentra su capacidad para resistir ediciones comunes como desenfoques, recortes y compresión de video. Además, incluye un mensaje oculto que permite rastrear el origen del video, aportando un nivel adicional de autenticidad y seguridad.

Fernández señaló que las herramientas actuales enfrentan importantes deficiencias en este ámbito. “Si bien existen otras herramientas de marca de agua, no ofrecen la solidez suficiente para la compresión de video, que es muy frecuente cuando se comparte contenido a través de plataformas sociales; no eran lo suficientemente eficientes para funcionar a gran escala; no eran abiertas ni reproducibles; o se derivaban de la marca de agua de imágenes, que no es óptima para los videos”, explicó.

Limitaciones y desafíos en la implementación

A pesar de sus ventajas, la tecnología también enfrenta desafíos. Fernández reconoció que las marcas de agua podrían verse afectadas por compresiones intensas o ediciones significativas, lo que podría hacerlas irrecuperables.

Otro desafío es incentivar el uso de esta tecnología en un ecosistema donde muchas empresas ya utilizan soluciones propietarias. Para abordar este problema, Meta está lanzando Meta Omni Seal Bench, una tabla comparativa pública que permitirá evaluar el desempeño de diversas tecnologías de marcas de agua en diferentes escenarios. Además, organizará un taller sobre marcas de agua en la conferencia ICLR, uno de los eventos más destacados en el ámbito de la inteligencia artificial, con el objetivo de fomentar la adopción de estándares abiertos y promover la colaboración en la industria.

También señaló la importancia de la colaboración entre la industria tecnológica y la comunidad académica para avanzar en este campo. “Esperamos que cada vez más investigadores y desarrolladores de IA integren algún tipo de marca de agua en su trabajo”, afirmó.

]]>
249909
Meta prueba reconocimiento facial para combatir fraudes con inteligencia artificial https://www.chanboox.com/2024/10/22/meta-prueba-reconocimiento-facial-para-combatir-fraudes-con-inteligencia-artificial/ Wed, 23 Oct 2024 03:34:11 +0000 https://www.chanboox.com/?p=244898

Meta utiliza reconocimiento facial como medida antiestafa ante los anuncios fraudulentos que incluyen celebridades

Notipress.- Meta está implementando el reconocimiento facial como medida antiestafa para combatir los anuncios fraudulentos de celebridades. Para dificultar la tarea de los estafadores y evitar que engañen a los usuarios de Facebook e Instagram, los escaneos automatizados (que utilizan clasificadores de aprendizaje automático) se ejecutarán como parte de un sistema de revisión de anuncios.

Los estafadores suelen intentar usar imágenes de figuras públicas, como creadores de contenido o celebridades, para atraer a las personas a que interactúen con anuncios que conducen a sitios web fraudulentos donde se les pide que compartan información personal o envíen dinero”, escribió la vicepresidenta de política de contenido de Meta, Monika Bickert. “Este esquema, comúnmente llamado ‘cebo de celebridades‘, viola nuestras políticas y es malo para las personas que usan nuestros productos”, agregó.

Las pruebas utilizan el reconocimiento facial como una medida de respaldo para verificar los anuncios que los sistemas Meta existentes consideran sospechosos. “Si confirmamos que hay una coincidencia y que el anuncio es una estafa, lo bloquearemos“, escribió Bickert.

Desde la empresa aseguraron que la función no se está utilizando para ningún otro fin que no sea el de combatir los anuncios fraudulentos. “Eliminamos inmediatamente cualquier dato facial generado a partir de anuncios para esta comparación única, independientemente de si nuestro sistema encuentra una coincidencia, y no la utilizamos para ningún otro fin”, afirmó la vicepresidenta de políticas de contenido.

La empresa implementó estas pruebas inicialmente con un “pequeño grupo de celebridades y figuras públicas” e informó que los resultados son “prometedores” en términos de eficacia y rapidez en la detección de estos fraudes. Además, Meta está explorando el uso de esta tecnología para identificar anuncios fraudulentos que utilizan imágenes generadas por inteligencia artificial (IA).

En las próximas semanas, Meta ampliará las notificaciones dentro de sus aplicaciones a un grupo más amplio de figuras públicas que fueron blanco de estafas con deepfakes, notificándoles que están inscritas en este sistema de protección. La compañía, además, está investigando el uso de reconocimiento facial para detectar perfiles falsos que intentan hacerse pasar por celebridades, comparando las fotos de perfil sospechosas con las imágenes oficiales en Facebook e Instagram. El objetivo es identificar y actuar contra los intentos de fraude de manera más precisa y eficiente.

Otra de las innovaciones que Meta está probando es la verificación de cuentas mediante selfies en video, combinando estos datos con reconocimiento facial para ayudar a los usuarios que han perdido el acceso a sus cuentas por ataques de estafadores. Este sistema busca simplificar el proceso de recuperación en comparación con la actual verificación mediante identificación oficial. Meta afirma que este método es similar a tecnologías como Face ID de Apple y asegura que los datos se cifran y eliminan tras la verificación, garantizando la privacidad de los usuarios.

Cabe destacar que, por el momento, las pruebas no se están llevando a cabo en el Reino Unido ni en la Unión Europea debido a las estrictas normativas de protección de datos en estas regiones. La compañía señala que trabaja con reguladores y expertos para buscar posibles formas de implementar estas tecnologías cumpliendo con las regulaciones vigentes, mientras continúa ajustando sus métodos basándose en los comentarios recibidos.

]]>
244898
California impone restricciones a los deepfakes electorales con la ley AB 2839 https://www.chanboox.com/2024/09/20/california-impone-restricciones-a-los-deepfakes-electorales-con-la-ley-ab-2839/ Fri, 20 Sep 2024 11:14:24 +0000 https://www.chanboox.com/?p=241968

Usuarios podrían enfrentar sanciones por compartir deepfakes engañosos en redes sociales

Notipress.- El gobernador de California, Gavin Newsom, firmó la ley AB 2839, una nueva ley que impone restricciones estrictas a la difusión de deepfakes de inteligencia artificial (IA) relacionados con las elecciones. La medida, que entró en vigor de manera inmediata, está diseñada para proteger a los votantes de contenido materialmente engañoso y evitar la manipulación electoral a través de la tecnología.

La ley apunta específicamente a los distribuidores de estos contenidos con desinformación, más que a sus creadores o a las plataformas donde se publican. Esto significa que cualquier usuario de redes sociales que publique o reenvíe deepfakes con la intención de confundir a los votantes podría enfrentar consecuencias legales, incluidas órdenes judiciales o compensaciones monetarias.

¿A quiénes afecta esta ley?

AB 2839, una ley diseñada para aplicar a cualquier contenido relacionado con candidatos que figuren en las boletas de California, ya sean de elecciones locales, estatales o federales. Newsom destacó la relevancia de la ley en una publicación donde señaló que ya no se podrán distribuir anuncios o comunicaciones electorales que contengan falsificaciones profundas y materialmente engañosas. Como ejemplo, mencionó un deepfake difundido por Elon Musk, que presentaba falsamente a Kamala Harris describiéndose a sí misma como incompetente. Este tipo de contenido, dijo Newsom, es lo que la nueva legislación busca prevenir.

Por su parte, la nueva ley se aplica durante los 120 días previos a una elección en California y los 60 días posteriores. Durante este tiempo, las reglas sobre la difusión de información falsa se endurecen, afectando no solo a los anuncios de campañas políticas, sino también a las publicaciones de usuarios comunes en redes sociales, televisión, radio o mensajes de texto.

Esta legislación llega en un momento crucial, de cara a las elecciones presidenciales en noviembre de 2024, y se posiciona como una de las medidas más estrictas en Estados Unidos para combatir la manipulación digital en el ámbito electoral.

Musk siguió republicando deepfakes que involucran a figuras políticas, lo que podría llevar a que la nueva ley sea puesta a prueba en los tribunales. A pesar de esto, Newsom reafirmó que la ley no restringe el uso de la parodia, sino que apunta a contenidos engañosos que amenacen la integridad del proceso democrático.

Así, la AB 2839 representa un esfuerzo por evitar que los deepfakes de inteligencia artificial influyan fraudulentamente en las elecciones y proteger así la confianza pública en la información electoral. Gershenzon enfatizó que el objetivo principal de la ley no es castigar, sino prevenir la difusión de contenido falso desde el inicio.

]]>
241968
Taylor Swift se aleja de los deepfakes con IA después del debate entre Trump y Harris https://www.chanboox.com/2024/09/11/taylor-swift-se-aleja-de-los-deepfakes-con-ia-despues-del-debate-entre-trump-y-harris/ Thu, 12 Sep 2024 03:16:46 +0000 https://www.chanboox.com/?p=241269

Taylor Swift publicó en sus redes sociales que acompañará a Kamala Harris

Notipress.- De alguna forma, la cantante Taylor Swift se vio inmersa en la batalla electoral entre Kamala Harris y Donald Trump. El primer paso fue dado por sus fans quienes comenzaron a hacer campaña por la candidata demócrata Kamala Harris. Pero, después, el candidato republicano Donald Trump fue más allá introduciendo a la figura de la artista pop en su campaña presidencial. Esto provocó un tironeo entre los partidarios de ambos candidatos para apropiarse de la imagen de Taylor Swift en beneficio de su partido. Finalmente, la aclamada cantante hizo pública su intención de voto por Harris al tiempo que se desligó de los deepfakes, una campaña creada con inteligencia artificial que la ponía a favor de Trump.

“Como muchos de ustedes, vi el debate de esta noche”, aseguró la cantante Taylor Swift en su cuenta de Instagram minutos después de que finalizara el debate presidencial entre Harris y Trump. “Si aún no lo han hecho, ahora es un buen momento para investigar sobre los temas en cuestión y las posturas que adoptan estos candidatos sobre los temas que más les importan”, agregó. Al respecto, Trump afirmó al día siguiente del debate presidencial, probablemente sea el mercado quien le haga pagar el precio de sus dichos.

Deepfakes con IA

Swift se introdujo involuntariamente en la campaña, primero a través de sus fans, pero luego, el expresidente publicó en su red social Truth Social imágenes creadas con inteligencia artificial en donde podía verse a la cantante caracterizada como el Tío Sam invitando a sus fans a votar por Trump. Además, compartió varias imágenes editadas de jóvenes con remeras que traían el lema “Swifters for Trump”.

En ese momento, la cantante no se pronunció al respecto. Sin embargo, al finalizar el debate entre Donald Trump y Kamala Harris transmitido por la cadena ABC News, la estrella pop publicó una foto junto a su gato acompañada de un extenso texto en el cual se refirió a las imágenes generadas por IA.

“Recientemente me enteré de que una IA de “mí” apoyando falsamente la candidatura presidencial de Donald Trump se publicó en su sitio. Realmente evocó mis temores en torno a la IA y los peligros de difundir información errónea. Me llevó a la conclusión de que necesito ser muy transparente sobre mis planes reales para esta elección como votante. La forma más sencilla de combatir la información errónea es con la verdad”, afirmó Swift en su publicación.

Asimismo, aseguró que votará por Kamala Harris y Tim Walz en las próximas elecciones. “Voy a votar por @kamalaharris porque ella lucha por los derechos y las causas que creo que necesitan una guerrera que las defienda“, sostuvo. Además, agregó que Harris “es una líder talentosa y de mano firme, y creo que podemos lograr mucho más en este país si nos guía la calma y no el caos”.

Por otro lado, comentó haberse sentido impresionada por la elección de Tim Walz como candidato a vicepresidente. De acuerdo con Swift, el gobernador de Minnesota “ha defendido los derechos LGBTQ+, la FIV [Fecundación in Vitro] y el derecho de la mujer a su propio cuerpo durante décadas”.

Elon Musk

Por si la polémica se quedara corta, Elon Musk salió al cruce de Taylor Swift en un mensaje confuso al publicar en X: “Bien Taylor… tú ganas… te daré un hijo y cuidaré a tus gatos con mi vida”. Esto generó más polémica entre los usuarios de las redes sociales, con acusaciones que van de disgusto, acoso sexual y hasta machismo.

Toda la polémica se desencadenó cuando Taylor Swift escribió: “He investigado y he tomado mi decisión. La investigación es toda tuya y la decisión es tuya”, agregó la cantante en sus redes. La decisión de Swift puede significar un impulso más en la campaña de Kamala Harris quien se vio favorecida en las encuestas desde su postulación en remplazo de Joe Biden.

]]>
241269
El problema de las deepfakes y las posturas de las redes sociales al respecto https://www.chanboox.com/2020/08/07/el-problema-de-las-deepfakes-y-las-posturas-de-las-redes-sociales-al-respecto/ Fri, 07 Aug 2020 18:05:43 +0000 http://www.chanboox.com/?p=111429

De cara a la elección presidencial estadounidense, el uso de deepfakes con fines políticos es una posibilidad

 

NOTIPRESS.- Ante el surgimiento reciente de deepfakes y los problemas que ya se han experimentado por las noticias falsas y otras falsificaciones de información en redes sociales, muchas empresas, entre ellas TikTok, Facebook y Twitter, comienzan a tomar medidas para combatir la desinformación en sus plataformas.

Las deepfakes son audios o vídeos manipulados mediante el uso de inteligencia artificial (IA), para dar la impresión de que una persona dice o realiza acciones, con el fin de engañar a las personas. Estos videos o audios falsificados suelen ser difíciles de distinguir para una persona promedio, por lo cual, se teme su uso en ediciones engañosas con políticos expresando algo en realidad nunca dicho, a fin de desacreditar opositores.

Quien más recientemente implementó políticas para prevenir el uso de deepfakes en su plataforma ha sido TikTok, actualmente en negociaciones de venta con Microsoft, a fin de evitar el bloqueo en Estados Unidos, con el que ha amenazado el gobierno del presidente Donald Trump. Según informaron en su blog el 5 de agosto de 2020, la plataforma explícitamente prohíbe las deepfakes, además de cualquier otro video manipulado con la intención de causar daño. Con anterioridad, TikTok había prohibido ya los anuncios políticos, pero su nueva norma busca prevenir el uso de sus servicios en la distribución de falsificaciones con fines electorales.

Similarmente, Twitter ha decidido abordar el problema no desde el uso de IA como condición para prohibir una falsificación en particular, sino desde una perspectiva amplia, con una política que prohíbe toda clase de imágenes, videos y otros medios de carácter falso, incluyendo deepfakes, pero también otras formas de manipulación menos tecnológicas. Además de bloquear a usuarios responsables de transgresiones significativas, la plataforma etiquetará algunos de los contenidos como “medios manipulados” y proveerá, a través de un link, más contexto. Esta política comenzó a aplicarse a partir del 5 de mayo de 2020.

Por otro lado, Facebook decidió abordar el problema desde la perspectiva contraria y prohibirá el contenido editado de formas no evidentes para cualquier persona con el fin de producir un engaño, pero únicamente aquel contenido creado a través de IA. Esta prohibición no incluye el contenido de parodia o sátira, o los videos editados para remover palabras o cambiar el orden en que se dijeron, de acuerdo a la política dada a conocer por la plataforma el 6 de enero.

Aunque el uso de las deepfakes es aún mínimo, y no se ha detectado todavía un uso político, con la experiencia previa de vídeos falsos, con ediciones menos complejas –como el de la senadora estadounidense Nancy Pelosi en 2019, donde se hace parecer que tiene problemas para hablar–, las distintas redes sociales han decidido prepararse para el problema con anticipación, frente al panorama de las elecciones estadounidenses de 2020.

 

 

 

]]> 111429