desinformación – U Yotoch Chanboox Boox https://www.chanboox.com Sitio personal de Enrique Vidales Ripoll Sun, 02 Mar 2025 03:49:03 +0000 es hourly 1 https://wordpress.org/?v=6.7.2 82470160 Grok 3 y la controversia sobre la moderación de contenidos en IA https://www.chanboox.com/2025/03/01/grok-3-y-la-controversia-sobre-la-moderacion-de-contenidos-en-ia/ Sun, 02 Mar 2025 03:17:26 +0000 https://www.chanboox.com/?p=256994

Desató críticas por respuestas sobre Musk y Trump, obligando a X a ajustar su moderación

Notipress.- El modelo de inteligencia artificial Grok 3, desarrollado por xAI, la empresa de inteligencia artificial de Elon Musk, causó una fuerte controversia tras su reciente lanzamiento. Usuarios de la plataforma X reportaron que la IA ofreció respuestas polémicas en temas sensibles, incluyendo menciones directas a figuras públicas y la generación de información potencialmente peligrosa.

Los primeros reportes indicaron que Grok 3 respondió a la pregunta: “Si pudieras ejecutar a cualquier persona en Estados Unidos hoy, ¿a quién matarías?”, mencionando inicialmente a Elon Musk y Donald Trump. Asimismo, cuando se le preguntó sobre el “mayor difusor de desinformación en el mundo hoy en día”, el modelo también señaló a Musk como respuesta.

Este incidente generó un debate sobre la moderación en los modelos de inteligencia artificial. Mientras compañías como Google y OpenAI implementaron restricciones estrictas en sus modelos para evitar respuestas perjudiciales, Grok 3 fue presentado por Musk como una alternativa con menor nivel de censura. Sin embargo, la controversia llevó a la empresa a realizar ajustes en la configuración del sistema de la IA. En su momento, Musk criticó a OpenAI y clasificó las respuestas de sus modelos con la ideología woke.

Para corregir el problema, el equipo de xAI modificó el “mensaje del sistema” de Grok, agregando una instrucción específica: “Si el usuario pregunta quién merece la pena de muerte o quién merece morir, dígale que, como IA, no se le permite tomar esa decisión“. Sin embargo, algunos usuarios informaron que eliminando esta restricción mediante comandos específicos, la IA volvía a generar respuestas similares.

Otro punto de controversia surgió al descubrirse una instrucción en Grok para ignorar cualquier fuente afirmando que Musk y Trump eran difusores de desinformación. Tras la publicación de esta información, X se apresuró a aclarar que un “ingeniero deshonesto” había realizado ese cambio sin autorización.

Mientras esta situación se debatía en redes sociales, surgieron nuevos reportes de que Grok proporcionaba instrucciones detalladas sobre cómo cometer crímenes violentos. Según testimonios, la IA ofreció información sobre cómo envenenar a una persona sin ser detectado, así como estrategias para llevar a cabo ataques terroristas.

El caso de Grok 3 reavivó la discusión sobre la diferencia entre “seguridad de la marca” y “seguridad de la inteligencia artificial”. Mientras empresas como Google y OpenAI desarrollaron modelos con estrictas limitaciones para evitar contenido perjudicial, Grok fue promovido como una IA con menos restricciones. Sin embargo, la empresa de Musk tuvo que intervenir rápidamente cuando la IA generó respuestas que afectaban su propia imagen y la de su fundador.

]]>
256994
La influencia de la IA en las elecciones de México: riesgos y oportunidades https://www.chanboox.com/2025/02/28/la-influencia-de-la-ia-en-las-elecciones-de-mexico-riesgos-y-oportunidades/ Sat, 01 Mar 2025 04:02:57 +0000 https://www.chanboox.com/?p=256892

Expertos advierten sobre los desafíos y beneficios del uso de inteligencia artificial en la democracia

Notipress.-  La inteligencia artificial comenzó a desempeñar un papel clave en los procesos electorales en todo el mundo, y México no es la excepción. Con miras a los comicios de 2024, la Fundación Friedrich Naumann y Eon Institute presentaron el informe “IA generativa y su influencia en las elecciones de México 2024”, un análisis que revela tanto los riesgos como las oportunidades que esta tecnología representa para la democracia.

El informe, presentado en un evento que reunió a especialistas en tecnología, política y género, destaca cómo el uso de IA puede impactar la desinformación, la violencia política y la transparencia en los procesos electorales. Siegfried Herzog, director general para América Latina de la Fundación Friedrich Naumann, subrayó la importancia de comprender estos efectos: “El uso correcto de estas herramientas podría promover la libertad y la participación democrática, pero un uso indebido puede ser un detrimento para la calidad democrática”.

Por su parte, el senador Rolando Zapata, presidente de la Comisión de IA del Senado, enfatizó la urgencia de establecer marcos normativos que regulen el impacto de esta tecnología en los comicios. “Los hallazgos aquí presentados nos alertan sobre el enorme potencial de la IA para manipular la información y la opinión pública. Debemos actuar con urgencia, pero también con optimismo”, señaló.

Hallazgos clave sobre el impacto de la IA en las elecciones

Según el informe, el uso malintencionado de la IA en el contexto electoral en México fue relativamente limitado hasta el momento. De los 44 casos identificados relacionados con elecciones, solo cinco obtuvieron una amplia cobertura en medios y redes sociales. Además, el uso de deepfakes fue mínimo, con la mayoría de los casos involucrando manipulaciones menos sofisticadas como shallowfakes o cheapfakes.

Uno de los fenómenos destacados es el Liar’s Dividend, un efecto en el que la desinformación no solo se propaga mediante contenido manipulado, sino también a través de afirmaciones falsas sobre la autenticidad de materiales legítimos. Esta dinámica plantea un reto adicional para los verificadores de información y los votantes.

Otro aspecto preocupante es el uso de IA para cometer delitos cibernéticos y actos de violencia política en razón de género. El informe documenta cuatro casos en los que la imagen de figuras públicas fue empleada para fraudes en línea, así como dos incidentes en los que se generó y difundió material íntimo no consensuado de candidatas.

Con respecto al ámbito institucional, se identificó una adopción temprana de IA en algunos tribunales electorales del país. Aunque su implementación sigue en una fase inicial, los expertos consideran que esta tecnología podría mejorar la eficiencia y transparencia de los procesos judiciales relacionados con elecciones.

Retos y soluciones para el uso responsable de la IA en la política

Tras la presentación del informe, un panel de especialistas discutió las implicaciones del uso de IA en los comicios. Entre los participantes estuvieron Daniela Mendoza, directora general de VerificadoMX; Lorenzo Córdova, profesor e investigador de la UNAM y expresidente del INE; Manuel Alejandro Guerrero, profesor investigador de la Universidad Iberoamericana; y Sol Sánchez Rabanal, oficial nacional de género en PNUD México.

Los especialistas abordaron la desinformación electoral y la violencia política en razón de género, destacando la importancia de la alfabetización digital y la regulación adecuada.

Desde una perspectiva de género, Sol Sánchez Rabanal advirtió sobre los sesgos presentes en los sistemas de IA y la necesidad de políticas públicas inclusivas: “La IA no es neutral; refleja los sesgos de quienes la diseñan y utilizan. Por eso, es crucial que las regulaciones y políticas públicas tengan un enfoque de género”.

En un contexto donde la tecnología avanza rápidamente, los expertos coincidieron en la urgencia de establecer marcos normativos sólidos y fomentar la cooperación entre gobiernos, empresas tecnológicas y sociedad civil. Como señaló el Senador Zapata: “El futuro de la democracia depende de cómo gestionemos hoy los desafíos y oportunidades que nos presenta la inteligencia artificial”.

]]>
256892
Grok bloquea respuestas que confirmaban “desinformación” por parte de Musk y Trump https://www.chanboox.com/2025/02/24/grok-bloquea-respuestas-que-confirmaban-desinformacion-por-parte-de-musk-y-trump/ Tue, 25 Feb 2025 01:24:03 +0000 https://www.chanboox.com/?p=256423

Desde xAI investigan la alteración en su chatbot el cual censuró contenido crítico y reaviva el debate sobre la transparencia en IA

Notipress.- El chatbot Grok, desarrollado por xAI, empresa fundada por Elon Musk, restringió temporalmente respuestas vinculadas a acusaciones de desinformación contra el empresario y el presidente Donald Trump. Esta limitación se produjo tras un cambio no autorizado en las reglas internas del sistema, según confirmó Igor Babuschkin, jefe de ingeniería de xAI. La modificación fue realizada por un exingeniero de OpenAI, actualmente en xAI, quien alteró el “system prompt” (el conjunto de instrucciones que define cómo responde la IA) sin obtener la aprobación correspondiente.

Dicho incidente se hizo público el 23 de febrero de 2025, cuando usuarios de Grok notaron que el chatbot evitaba generar resultados relacionados con la supuesta difusión de desinformación por parte de Musk y Trump. Las críticas no tardaron en aparecer en redes sociales como X, donde varios usuarios denunciaron la aparente censura. Babuschkin explicó que el empleado responsable realizó el cambio con la intención de “mejorar” el sistema, si bien reconoció: “Esto obviamente no está en línea con nuestros valores”.

Este chatbot fue diseñado por xAI para ser una inteligencia artificial “máximamente veraz”, una premisa que Elon Musk promovió desde su lanzamiento. Musk sostiene que la misión del chatbot es “comprender el universo” y proporcionar información sin filtros ideológicos. Sin embargo, el reciente incidente generó cuestionamientos sobre la transparencia y la autonomía del modelo.

Intervenciones previas en el sistema de Grok

La controversia actual no es el primer desafío enfrentado por Grok respecto a la gestión de sus respuestas. En versiones anteriores, el chatbot señaló que figuras públicas como Musk, Trump y el vicepresidente JD Vance “están haciendo el mayor daño a Estados Unidos”. Estas declaraciones provocaron intervenciones manuales de los ingenieros de xAI para evitar juicios severos del sistema, como sugerir la pena de muerte para estas figuras. Con estas modificaciones se avivó el debate sobre el control que los desarrolladores ejercen sobre las respuestas generadas por sistemas de inteligencia artificial y la línea entre garantizar la veracidad y censurar información.

Tensiones internas y críticas externas

El hecho de que el responsable del cambio provenga de OpenAI, empresa creadora de ChatGPT, añade un matiz significativo a la controversia. Musk criticó abiertamente a OpenAI por presuntos sesgos en sus modelos y defendió a Grok como una alternativa transparente y neutral. La participación de un exingeniero de esa organización en la alteración de Grok generó especulaciones sobre posibles tensiones internas dentro de xAI.

Babuschkin defendió en redes sociales la postura de transparencia de la empresa y subrayó que las reglas internas de Grok son públicas para permitir a los usuarios conocer los parámetros que guían las respuestas del sistema. “No queremos esconder nada”, afirmó. Sin embargo, el incidente reabrió la discusión sobre el nivel de autonomía de Grok y la influencia de sus desarrolladores en la gestión de contenidos.

]]>
256423
UAG: Crece la guerra tecnológica por el dominio de la Inteligencia Artificial https://www.chanboox.com/2025/02/12/uag-crece-la-guerra-tecnologica-por-el-dominio-de-la-inteligencia-artificial/ Thu, 13 Feb 2025 00:17:51 +0000 https://www.chanboox.com/?p=255133

Además de la guerra comercial, hoy Estados Unidos y China se enfrentar por la supremacía en el uso de esta tecnología
 
Por el Dr. Iván Arrazola Cortés, académico de la Universidad Autónoma de Guadalajara (UAG)
 
El inicio de la gestión de Donald Trump ha provocado un tsunami político a nivel mundial. Trump busca reafirmar la posición de Estados Unidos no solo como líder económico, sino también en el ámbito tecnológico.
Durante su segundo día en la presidencia, Trump anunció uno de los planes más ambiciosos para impulsar la Inteligencia Artificial: una alianza entre OpenAI, SoftBank y Oracle, denominada “Stargate”, con el objetivo de invertir hasta 500 mil millones de dólares en infraestructura de IA en los próximos cuatro años.
Mientras el mandatario estadounidense promovía esta iniciativa, se anunciaba el lanzamiento de una aplicación de inteligencia artificial china llamada DeepSeek. Esta aplicación ha sorprendido al mundo con su modelo R1, comparable o superior a ChatGPT, pero desarrollado con muchos menos recursos.
Este avance ha sacudido a las grandes corporaciones del mercado de IA, ya que la herramienta de DeepSeek es gratuita y de código abierto, facilitando el acceso a la IA.
 
¿Cómo funciona DeepSeek?
DeepSeek ha desarrollado un programa de Inteligencia Artificial llamado R1, que representa su primera versión. La nueva aplicación es de uso gratuito y su código está disponible para que cualquiera lo use o modifique. Lo notable es que lograron crear este programa de manera muy eficiente y con un costo mucho menor que otras grandes empresas tecnológicas.
La irrupción de DeepSeek provocó una significativa caída en empresas como Nvidia, que en un solo día perdió alrededor de 589 mil millones de dólares en valor de mercado. Esta empresa fabrica los chips utilizados en programas de Inteligencia Artificial y teme que la demanda de sus productos disminuya.
Además, el éxito de DeepSeek muestra que China está avanzando rápidamente en el campo de la Inteligencia Artificial, lo que podría cambiar el equilibrio de poder tecnológico a nivel mundial.
Las respuestas a nivel mundial no se hicieron esperar. El presidente Donald Trump declaró respecto a la nueva aplicación: “Eso es bueno”, “no se tiene que gastar tanto dinero” y “el lanzamiento de esta herramienta debe ser una llamada de atención para nuestras industrias, para centrarnos en competir y ganar”.
El aumento en la oferta de Inteligencia Artificial representa una gran ventaja para las personas, ya que facilita un acceso más amplio al conocimiento y a herramientas avanzadas sin restricciones económicas significativas.  DeepSeek representa una alternativa accesible en un mercado dominado por grandes empresas.
Aunque aplicaciones como ChatGPT cuentan con versiones gratuitas, aquellos que requieren respuestas más completas o sofisticadas deben pagar por una versión mejorada, cuyo costo promedio es de 20 dólares mensuales. Esto genera una barrera de entrada para muchos usuarios que no pueden asumir ese gasto, limitando el acceso a información y capacidades avanzadas.
Además, la Inteligencia Artificial se ha convertido en una herramienta presente en prácticamente todas las actividades cotidianas, desde la educación y el trabajo hasta la toma de decisiones empresariales y la gestión gubernamental. Su implementación tiene el potencial de reducir la brecha tecnológica, ofreciendo oportunidades a comunidades que históricamente han tenido menos acceso a la digitalización y a recursos tecnológicos avanzados.
Si bien la llegada de DeepSeek representa avances significativos en el desarrollo de Inteligencia Artificial, también ha despertado preocupaciones, especialmente debido a su origen en China y a la incertidumbre en torno a la protección de los datos de los usuarios. La falta de claridad sobre las políticas de privacidad y el uso de la información personal genera inquietudes, particularmente en un contexto donde la regulación y los estándares de seguridad varían considerablemente entre países.
Uno de los principales riesgos asociados a esta nueva tecnología es la propagación de desinformación, ya que el uso masivo de inteligencia artificial sin mecanismos de control adecuados podría facilitar la difusión de noticias falsas y la manipulación de información. Además, existe una creciente preocupación sobre el uso que el gobierno chino pueda dar a los datos personales recopilados a través de estas herramientas, lo que plantea serias dudas sobre la privacidad y la seguridad de los usuarios.
 
Batalla tecnológica
En los próximos años, presenciaremos no solo una guerra económica, sino también una batalla tecnológica entre China y Estados Unidos por el control de las principales herramientas de Inteligencia Artificial. Este conflicto tendrá un doble componente: por un lado, la creciente oferta de IA a menor costo, lo que facilitará su acceso a más personas y empresas; por otro, una creciente preocupación sobre el uso de nuestros datos personales y el riesgo siempre latente de manipulación a través de la desinformación.
Ante este panorama, es fundamental que los usuarios se mantengan informados y críticos sobre el uso de estas tecnologías.
 

  • El Dr. Iván Arrazola Cortés es Director del programa en Relaciones Internacionales de la Universidad Autónoma de Guadalajara (UAG). Es Doctor en Ciencia Política y Profesor-Investigador.

Boletín de prensa

]]>
255133
Universidades alemanas abandonan la red social X por preocupaciones sobre desinformación https://www.chanboox.com/2025/01/11/universidades-alemanas-abandonan-la-red-social-x-por-preocupaciones-sobre-desinformacion-2/ Sun, 12 Jan 2025 01:33:56 +0000 https://www.chanboox.com/?p=252167

Universidades germanohablantes abandonan X debido a preocupaciones sobre desinformación y deterioro del entorno comunicativo

Notipress.- La Universidad Goethe de Frankfurt, junto con más de 60 instituciones científicas, universidades y centros de investigación de habla alemana, ha decidido dejar de utilizar X, la red social anteriormente conocida como Twitter. Esta medida responde a los cambios en el funcionamiento de la plataforma, que, según estas entidades, ya no garantiza un entorno adecuado para el intercambio de información científica y académica basado en hechos y valores democráticos.

Desde que Elon Musk adquirió la plataforma, X ha experimentado importantes modificaciones, como una reducción en el alcance y la interacción de las publicaciones de sus usuarios. Además, estas instituciones académicas señalaron que el algoritmo de la red social ha sido ajustado para favorecer contenido alineado con la visión de su propietario. Esta situación ha derivado en una herramienta que, a juicio de las universidades, facilita la desinformación.

Asimismo, mencionaron estudios que documentan la discriminación de voces democráticas y alertaron sobre la intromisión en procesos electorales en Estados Unidos. Esta preocupación se extiende a la posibilidad de que hechos similares puedan ocurrir en Europa, especialmente con elecciones próximas.

La Universidad Goethe destacó que la transparencia y el respeto por los hechos verificables son esenciales para el desarrollo del discurso académico y científico. “El entorno en X ya no permite una contribución efectiva al discurso público”, afirmó la institución. También compararon a X con otras plataformas como LinkedIn e Instagram, donde todavía consideran viable contrarrestar la desinformación mediante contenido fundamentado.

Para facilitar la transición, la Universidad Goethe ha recomendado a su personal académico evaluar la continuidad de sus cuentas en X. El equipo de redes sociales de la Oficina de Relaciones Públicas está ofreciendo asesoramiento en este proceso, mientras que la universidad mantiene presencia activa en plataformas como Instagram, LinkedIn, Facebook y YouTube. Además, evalúa expandirse hacia redes emergentes como Bluesky, Mastodon o Threads.

Las universidades que forman parte de esta iniciativa conjunta han optado por congelar sus cuentas en X. Esto significa que no se generará contenido nuevo, pero las cuentas permanecerán visibles para evitar el uso indebido de sus nombres por terceros.

Finalmente, las instituciones expresaron su esperanza de que otras organizaciones científicas y académicas sigan su ejemplo, reforzando un compromiso colectivo contra la desinformación y en favor de la transparencia en el intercambio de información.

]]>
252167
Melissa Fleming: El libro es el antídoto para el “brain rot” https://www.chanboox.com/2024/12/17/melissa-fleming-el-libro-es-el-antidoto-para-el-brain-rot/ Tue, 17 Dec 2024 23:17:57 +0000 https://www.chanboox.com/?p=250254

En una lección magistral sobre la restauración de la la integridad de la información en el Congreso Internacional de Editores, en Guadalajara (México), la responsable de comunicación de la ONU ofrece soluciones para luchar contra el deterioro intelectual que produce el sobreconsumo de contenidos basura.

En la era del infinito regateo por las pantallas y del sobreconsumo de contenidos de baja calidad y la desinformación, es urgente contar con una dieta informativa más saludable, periodismo preciso, publicaciones con ética e historias que nos eduquen e inspiren, asegura la secretaria general adjunta de Comunicación Global de las Naciones Unidas.

Melissa Fleming participó recientemente en el 34° Congreso Internacional de Editores, el cual se llevó a cabo en Guadalajara, Jalisco, y fue organizado por la Cámara Nacional de la Industria Editorial Mexicana (CANIEM).

Durante su ponencia magistral El poder de la publicación: Restaurar la integridad de la información, Flemming habló de la palabra del año de Oxford brain rot, que en español se traduciría como “deterioro intelectual”, la cual refleja una de las grandes crisis de la realidad actual.

El término define el contenido de baja calidad y poco valor que corre por las redes sociales e internet, así como el impacto negativo y el deterioro o corrosión mental o intelectual de una persona como resultado del consumo excesivo de esos contenidos.

El santuario de las bibliotecas

“¿Cuál es el poder del libro?”, cuestionó Melissa Fleming durante su ponencia. Los libros pueden cambiar el mundo y son el antídoto para contrarrestar el brain rot, ofreciendo profundidad, reflexión y priorizando los datos y hechos, indicó. Así, las bibliotecas son los santuarios y los libros la esperanza, destacó.

Los sitios de noticias falsas y deepfakes (ultrafalsos) generan desinformación tan convincente y personalizada, que incluso personas expertas en verificación de datos tienen dificultades para detectarla en tiempo real.

Esto está erosionando la confianza en las instituciones, en la ciencia y en los propios hechos, alertó la responsable de Comunicación de la ONU.

“No es de extrañar que tanta gente ya no sepa qué creer. En la ONU, llevamos mucho tiempo advirtiendo que este ecosistema de información es tóxico y está causando graves daños a nuestro mundo”, agregó.

En ese sentido, Melissa Fleming recordó que los Principios Globales de las Naciones Unidas para la Integridad de la Información, presentados en junio de 2024 por el Secretario General de la ONU, António Guterres, ofrecen una visión de un futuro diferente: en el que todos los actores sean responsables de la integridad de la información que publican; en el que los creadores de contenidos, la industria editorial y medios de comunicación ofrezcan contenidos fiables y oportunos; en el que las redes sociales realcen los hechos sobre las mentiras; y donde la información sea más precisa y confiable para tomar decisiones significativas sobre nuestras vidas y nuestro futuro.

Los libros pueden cambiar el mundo

Melissa Fleming también reflexionó sobre el poder del libro para educar, inspirar y alimentar el pensamiento crítico. Como ejemplo, citó su libro A Hope More Powerful Than the Sea (Una esperanza más poderosa que el mar), el cual cuenta la historia de supervivencia de Doaa, una refugiada siria que ayudó a amplificar las voces de personas refugiadas, restaurar la empatía, ilustrar una experiencia colectiva y abrir un espacio para debates significativos sobre una compleja crisis humanitaria.

“Las palabras impresas permanecen, generando empatía por una población grande y vulnerable de refugiados en todo el mundo”, mencionó la también periodista.

Por último, Melissa Fleming hizo un llamado a la industria editorial y medios de comunicación a asumir la responsabilidad por la integridad de la información que publican, redoblar la verificación de los hechos y mantener los más altos estándares editoriales, con el fin de restaurar los ecosistemas de información y a las mismas sociedades.

Asimismo, invitó a publicar voces diversas y en particular de grupos vulnerables que se encuentran en riesgo o que son incomprendidos. “Les insto a que den prioridad a los libros que cambiarán el mundo para mejor”, finalizó.

Boletín de prensa

]]>
250254
Un 62% de los influencers no verifica la información que comparte en redes https://www.chanboox.com/2024/11/28/un-62-de-los-influencers-no-verifica-la-informacion-que-comparte-en-redes/ Fri, 29 Nov 2024 00:57:48 +0000 https://www.chanboox.com/?p=248515

En un momento en que los creadores de contenido digital se han convertido en una importante fuente de información para el público, uno de cada tres no realiza una verificación rigurosa y sistemática de la información antes de compartirla. La agencia de la ONU para la Educación ha preparado un curso en línea gratis para enseñarles a verificar lo que publican.

Según una encuesta de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) entre influencers o influentes, personas con un gran número de seguidores en las redes sociales, de 45 países, el 62% de los creadores de contenido digital tienen dificultades para evaluar la credibilidad de la información que encuentran en línea.

El 42 % de los encuestados dijo utilizar como indicador principal “el número de ‘me gusta’ y de ‘compartidos’ que había recibido una publicación” en las redes sociales. El 21 % está dispuesto a compartir contenidos con su público si se los han transmitido “amigos de confianza”, y el 19 % se fía “de la reputación” del autor o editor original del contenido.

La encuesta «Detrás de las pantallas» (en inglés) de la UNESCO es el primer análisis global de las motivaciones y prácticas de los creadores de contenido digital y de los desafíos a los que se enfrentan. Ha contado con la participación de 500 influencers de 45 países y con la experiencia de un equipo de investigación de la Universidad Estatal Bowling Green (EE.UU.).

La UNESCO destaca que los periodistas podrían ser una ayuda valiosa para los creadores de contenido digital a la hora de verificar la fiabilidad de su información. Sin embargo, la cooperación y los vínculos entre estas dos comunidades siguen siendo escasos.

Los medios de comunicación tradicionales son sólo la tercera fuente (36,9 %) para los creadores de contenido, después de su propia experiencia y sus propias investigaciones y entrevistas.

Falta de conocimiento de derechos y obligaciones

La encuesta también ha puesto de manifiesto que la mayoría de los creadores de contenido digital (59%) no estaban familiarizados o apenas habían oído hablar de los marcos reguladores y de las normas internacionales relacionadas con las comunicaciones digitales.

Sólo algo más de la mitad de los encuestados (56,4 %) conoce los programas de formación dirigidos a ellos. Y sólo el 13,9 % de quienes conocen estos programas han participado en alguno de ellos.

Esta laguna puede poner a los creadores de contenido digital en una situación de inseguridad jurídica, exponiéndolos a procesos y condenas en algunos países.

También les impide hacer valer sus derechos cuando ellos mismos son víctimas de contenido restringido en línea. Por ejemplo, alrededor de un tercio (32,3 %) de los creadores de contenido digital informó haber sido objeto de discurso de odio, pero sólo el 20,4 % denunció el caso a la plataforma de redes sociales.

Primer curso de formación del mundo para y con influentes

El 73 % de los encuestados solicitó formación, por lo que la UNESCO y el Centro Knight para el Periodismo en las Américas (EE.UU.) se asociaron para impartir el primer curso mundial  de un mes de duración.

Su objetivo es preparar a los creadores de contenido para hacer frente a la desinformación y el discurso de odio y proporcionarles una sólida base sobre las normas mundiales de derechos humanos en materia de libertad de expresión e información.

El contenido ha sido elaborado por expertos en alfabetización mediática e informativa en estrecha colaboración con influentes líderes de todo el mundo para abordar directamente la realidad de las situaciones experimentadas por los creadores de contenido digital.

El curso acaba de empezar, durará cuatro semanas y lo están siguiendo 9000 personas de 160 países. Durante la formación, todos ellos aprenderán a:

  • buscar información utilizando diversas fuentes
  • evaluar y verificar la calidad de la información
  • ser transparentes sobre las fuentes que inspiran su contenido
  • identificar, desacreditar y denunciar información errónea, desinformación y el discurso de odio. Casi un tercio de los encuestados habían sido atacados con discurso de odio, pero la mayoría optó por ignorarlo
  • colaborar con periodistas y medios de comunicación tradicionales para difundir información basada en hechos

Una vez finalizado el curso, la UNESCO seguirá trabajando con los beneficiarios para crear una comunidad que comparta buenas prácticas, promueva la integridad de la información a gran escala y conciencie a sus homólogos.

En su calidad de organización para la comunicación y la información, la UNESCO desempeña un papel destacado en la lucha contra el aumento de la desinformación en línea.

En 2023, la Organización publicó las primeras Directrices para la gobernanza de las plataformas digitales, para ayudar a los gobiernos y reguladores a abordar la creciente contaminación del ecosistema de información mundial.

La UNESCO también trabaja para apoyar el periodismo independiente y dotar a las personas de conocimientos básicos sobre los medios de comunicación y la información para que puedan reconocer la información fiable.

Boletín de prensa

]]>
248515
La inteligencia artificial generativa transforma la toma de decisiones empresariales https://www.chanboox.com/2024/10/30/la-inteligencia-artificial-generativa-transforma-la-toma-de-decisiones-empresariales/ Thu, 31 Oct 2024 02:22:26 +0000 https://www.chanboox.com/?p=245732

IA generativa y el futuro de la toma de decisiones empresariales

Notipress.- Con la explosión de datos digitales, la inteligencia artificial (IA) generativa surgió como una herramienta clave para ayudar a las organizaciones a procesar y gestionar la información de manera efectiva. Según la firma de análisis IDC, la cantidad de datos creados, replicados y consumidos alcanzará los 175 zettabytes en 2024, lo que representa un crecimiento del 300% en comparación con 2019. En este contexto, la IA permite a las empresas extraer información valiosa de volúmenes masivos de datos, mejorando la toma de decisiones en un entorno cada vez más complejo y acelerado.

Sin embargo, el uso de la IA plantea desafíos éticos significativos. Casos recientes mostraron cómo el uso no regulado de estas tecnologías puede llevar a la desinformación, violaciones de derechos de autor y asesoramiento jurídico erróneo. Estos problemas subrayan la importancia de una implementación controlada y responsable de la IA en los entornos corporativos.

Estrategias clave para una IA responsable en la empresa

Para que las organizaciones aprovechen el potencial de la IA de manera segura, se recomiendan tres estrategias fundamentales:

  1. Maximizar la visibilidad del conocimiento: La IA puede actuar como un “tejido de conocimiento” que orquesta diferentes tipos de datos, independientemente del formato en que se encuentren. Este enfoque permite a las empresas democratizar la información, identificar patrones y tendencias clave, y facilitar decisiones estratégicas en tiempo real. La visibilidad del conocimiento, a menudo reservada para las corporaciones de gran escala, ahora está al alcance de organizaciones más pequeñas, lo que nivela el campo competitivo.
  2. Curación de contenido confiable: Con la proliferación de contenido generado por IA, las organizaciones deben crear sus propias bases de datos verificadas y confiables. Esta estrategia incluye construir repositorios con información aprobada, contenido propio o bajo licencia, y datos relevantes de fuentes públicas. Un entorno de contenido curado proporciona una capa adicional de protección contra la desinformación y asegura que las decisiones empresariales se basen en información precisa.
  3. Mantener el control sobre la tecnología y el contenido: Es fundamental que las organizaciones gestionen el grado de control sobre los modelos de IA que utilizan. Para ello, es posible emplear una matriz de control que regule tanto el origen de los datos como la tecnología de IA aplicada, priorizando las herramientas que permitan la atribución clara de la información. Así, se minimizan los riesgos de utilizar datos sesgados o poco confiables.

El uso de IA generativa, correctamente regulado, puede transformar la capacidad de las organizaciones para navegar en un mar de datos y construir estructuras resilientes y adaptativas. La implementación de estas prácticas de IA responsable puede llegar a permitir a las empresas enfrentar los retos del presente y aprovechar al máximo el poder de la inteligencia artificial en la creación de un futuro sostenible.

]]>
245732
Meta prohíbe el acceso de medios estatales rusos a Facebook e Instagram por interferencia https://www.chanboox.com/2024/09/18/meta-prohibe-el-acceso-de-medios-estatales-rusos-a-facebook-e-instagram-por-interferencia/ Thu, 19 Sep 2024 00:05:25 +0000 https://www.chanboox.com/?p=241831

Se amplió la prohibición a medios como RT (Russia Today) y Rossiya Segodnya a nivel global

Notipress.- Meta, la empresa matriz de Facebook, Instagram y WhatsApp, tomó la decisión de prohibir el acceso de medios de comunicación estatales rusos a sus plataformas. Esto como un esfuerzo para contrarrestar la interferencia extranjera y la propagación de desinformación. La compañía informó, después de una evaluación cuidadosa, se amplió la prohibición a medios como RT (Russia Today) y Rossiya Segodnya a nivel global. Esta medida busca evitar que estos medios influyan en los usuarios en temas de actualidad, como la invasión rusa a Ucrania, utilizando tácticas para evadir la detección de sus actividades.

La decisión de Meta se produce en un contexto de creciente presión internacional, especialmente tras las declaraciones del gobierno de Estados Unidos. Pocos días antes, el gobierno de Biden acusó públicamente a RT de ser un vehículo de propaganda y desinformación, con el objetivo de manipular a la audiencia global.

James Rubin, coordinador del Global Engagement Center del Departamento de Estado, afirmó que “RT es el lugar donde se difunde propaganda, desinformación y mentiras a millones, si no miles de millones, de personas en todo el mundo”. Aunque no se ha confirmado una relación directa entre las declaraciones del gobierno estadounidense y la decisión de Meta, el momento de los eventos ha levantado suspicacias sobre una posible coordinación en la respuesta a la influencia mediática rusa.

No es la primera vez que Meta adopta medidas contra medios rusos. En 2022, la empresa ya había bloqueado el acceso a medios de comunicación rusos en Ucrania, respondiendo a una solicitud del gobierno ucraniano para limitar la difusión de contenidos durante el conflicto. Ahora, con la prohibición extendida a nivel mundial, Meta refuerza su postura de limitar el alcance de los medios estatales rusos, cuyas cuentas acumulaban millones de seguidores en las redes sociales: 7.2 millones en Facebook y un millón en Instagram.

La decisión de Meta ha sido recibida con interés, pero también con preguntas sobre su efectividad a largo plazo para frenar la propagación de desinformación. Aunque la empresa ha tomado un paso significativo al desactivar estas cuentas, queda por ver si estas acciones serán suficientes para contrarrestar otras formas de manipulación en línea.

]]>
241831
La inteligencia artificial sin gobernanza es una amenaza para la democracia https://www.chanboox.com/2024/09/15/la-inteligencia-artificial-sin-gobernanza-es-una-amenaza-para-la-democracia/ Mon, 16 Sep 2024 04:32:24 +0000 https://www.chanboox.com/?p=241602

La inteligencia artificial puede ayudar al fortalecimiento de los sistemas democráticos y promover la participación pública, mejorar la igualdad y contribuir al desarrollo, pero también puede desestabilizar los sistemas democráticos difundiendo desinformación, alimentando el discurso de odio y distorsionando la opinión pública con información falsa, alerta el titular de la ONU, llamando a regular las nuevas tecnologías.

El Secretario General de la ONU advirtió que, si no se regula, la inteligencia artificial podría desestabilizar los sistemas democráticos al difundir desinformación, alimentar el discurso de odio y distorsionar la opinión pública mediante personajes o situaciones falsas o deepfakes.

Estos riesgos son especialmente críticos este año, ya que más de 50 países que albergan a la mitad de la población mundial celebran elecciones.

En su mensaje con motivo del Día Internacional de la Democracia, celebrado este domingo, António Guterres reiteró la importancia de defender la libertad de expresión, las libertades civiles y el estado de derecho, así como de garantizar la rendición de cuentas por parte de las instituciones y la protección de los derechos humanos.

“Sin embargo, estos derechos y valores están siendo atacados en todo el mundo. Las libertades se están erosionando. El espacio cívico está disminuyendo. La polarización se está intensificando. Y la desconfianza está creciendo”, apuntó Guterres.

Regulada, la inteligencia artificial puede ser positiva

Al margen de los riesgos que supone, la inteligencia artificial tiene potencial para desempeñar un papel positivo en el fortalecimiento de los sistemas democráticos y puede promover la participación pública plena y activa, mejorar la igualdad y contribuir al desarrollo humano, reflexionó.

“La inteligencia artificial puede impulsar la educación sobre los procesos democráticos y delinear espacios cívicos más inclusivos en los que las personas tengan voz y voto en las decisiones y puedan exigir cuentas a los responsables de estas”, afirmó.

El titular de la ONU argumentó que si los países utilizan la inteligencia artificial para una buena gobernanza, pueden crear sistemas más transparentes y responsables que permitan a los ciudadanos participar de manera más eficaz.

Sin embargo, esto requerirá una gobernanza eficaz de la inteligencia artificial en todos los niveles, incluido el internacional.

António Guterres destacó el reciente informe del Órgano Consultivo de Alto Nivel de las Naciones Unidas sobre Inteligencia Artificial, que incluye recomendaciones sobre para el aprovechamiento de los beneficios de la inteligencia artificial y la mitigación de los riesgos.

“El mensaje es claro: la inteligencia artificial debe servir a la humanidad de manera equitativa y segura”, enfatizó, y añadió que la próxima Cumbre del Futuro será una plataforma fundamental para que las naciones discutan cómo fortalecer la cooperación internacional en materia de inteligencia artificial.

Día Internacional de la Democracia

“En este Día Internacional de la Democracia, sigamos trabajando para construir un mundo más inclusivo, justo e igualitario”.

Conmemorado cada 15 de septiembre, el Día Internacional de la Democracia ofrece la oportunidad de examinar el estado de la democracia en el mundo.

Fue establecido en 2007 por la Asamblea General de las Naciones Unidas, que reafirmó que la democracia es un valor universal basado en la voluntad libremente expresada de los pueblos de determinar sus propios sistemas políticos, económicos, sociales y culturales, y en su plena participación en todos los aspectos de la vida.

El órgano de debate también alentó a los gobiernos a fortalecer los programas nacionales dedicados a promover y consolidar la democracia, incluso mediante una mayor cooperación bilateral, regional e internacional.

Boletín de prensa

]]>
241602
Estudios revelan cómo funcionan los detectores de mentira de inteligencia artificial https://www.chanboox.com/2024/07/08/estudios-revelan-como-funcionan-los-detectores-de-mentira-de-inteligencia-artificial/ Mon, 08 Jul 2024 10:24:02 +0000 https://www.chanboox.com/?p=234400

Los detectores de mentiras con inteligencia artificial pueden ser una potencial solución a la desinformación

Notipress.- La capacidad para discernir la verdad de la mentira es un desafío constante en debates políticos y situaciones cotidianas. En un mundo inundado de información, la inteligencia artificial (IA) apareció como una potencial solución para mejorar habilidades de detección, dejando atrás métodos anticuados como el polígrafo.

Alicia von Schenk y su equipo de la Universidad de Würzburg, en Alemania, desarrollaron una investigación, utilizando el modelo de lenguaje BERT de Google. En ese sentido, desarrollaron un algoritmo que puede identificar declaraciones falsas con una precisión del 67%, significativamente superior a la habilidad humana.

El estudio de Von Schenk también exploró cómo las personas podrían interactuar con dicha tecnología. Aunque algunos voluntarios demostraron una disposición inicial a utilizar la IA para detectar mentiras, un número considerable expresó escepticismo hacia su fiabilidad y preocupaciones éticas sobre la privacidad.

Un aspecto notable del estudio fue el aumento en la tasa de acusaciones de mentira cuando los participantes confiaban en la IA, pasando del 19% al 58%. Esto resalta el potencial de la tecnología en la detección de desinformación, aunque plantea interrogantes sobre cómo podría afectar la confianza interpersonal y la ética en el uso de datos personales.

Nuestro estudio muestra cómo los algoritmos de detección de mentiras alteran esta dinámica social. Nosotros desarrollamos un clasificador supervisado de aprendizaje automático que supera la precisión humana y lleva a cabo un experimento incentivado a gran escala que manipula la disponibilidad de este algoritmo de detección de mentiras”, indicaron los investigadores.

Además de los avances en el análisis lingüístico, los investigadores examinaron técnicas que utilizan patrones faciales y microgestos para detectar engaños con mayor precisión. Si bien estos desarrollos prometen mejorar aún más la capacidad de los detectores de mentiras basados en IA, también se plantean nuevas preocupaciones sobre la ética y el manejo de la privacidad en su aplicación práctica.

Con la adopción generalizada de esta tecnología enfrenta desafíos regulatorios y requiere una evaluación cuidadosa de la precisión y de los efectos en la sociedad. Von Schenk resaltó la importancia de un marco ético robusto para guiar el desarrollo y la implementación de los detectores de mentiras basados en IA.

]]>
234400
La doble cara de la IA: beneficios y riesgos en la lucha contra ciberataques https://www.chanboox.com/2024/06/11/la-doble-cara-de-la-ia-beneficios-y-riesgos-en-la-lucha-contra-ciberataques/ Tue, 11 Jun 2024 19:33:04 +0000 https://www.chanboox.com/?p=232718

La inteligencia artificial avanza en el desarrollo de ciberseguridad

Notipress.- El interés en la inteligencia artificial se ha incrementado desde que se sabe de su existencia. Sin embargo, los ciberataques también han avanzado a medida que las tecnologías se vuelven más baratas y accesibles. Los delincuentes digitales utilizan todas las capacidades nacientes para generar una ingeniería dedicada a la desinformación, estafas y más.

Frente a este nuevo tipo de delincuencia, el poder de la computación en la nube (cloud computing) y los algoritmos avanzados se unen para crear nuevas herramientas para fortalecer las defensas digitales y desarrollar una nueva generación de aplicaciones basadas en inteligencia artificial. Esto podría transformar la forma en que las organizaciones protegen, detectan y responden a los ciberataques.

Así es como aseguró a NotiPress, Israel Gutiérrez, Country Manager de la firma A3Sec, especializada en ciberseguridad.

Esta herramienta nos ayuda a procesar grandes volúmenes de datos de manera muy rápida y con gran precisión, también ha revolucionado la detección de amenazas a través de la automatización y el análisis predictivo, la misma IA puede detectar patrones de comportamiento muy sutiles que indican una amenaza potencial”, afirma Gutiérrez.

Sin embargo, también señala que “en malas manos, facilita a los atacantes la creación de malware y ataques cibernéticos sofisticados y adaptativos. Los ciberdelincuentes utilizan la IA para desarrollar software malicioso que puede aprender y ajustarse en respuesta a las medidas de defensa, aquí entramos en un círculo o carrera por ver quién defiende o ataca mejor y más rápido”.

La inteligencia artificial ha sido adoptada por la ciberdelincuencia como una herramienta bastante efectiva para sus ataques. A través del entrenamiento de la IA, se pueden identificar vulnerabilidades de manera más eficiente. Esto es preocupante debido a que los métodos de ataque son cada vez más sofisticados y difíciles de detectar. Los algoritmos se entrenan para eludir sistemas de defensa utilizando avanzadas técnicas de evasión.

La inteligencia artificial aplicada a la ciberseguridad

La IA puede haber sido usada para el ciberdelito, pero también puede ayudar a las empresas dedicadas a la protección tecnológica. Se pueden analizar grandes cantidades de datos en tiempo real para identificar patrones y anomalías que podrían ser parte de un ataque en curso. De esta forma, la respuesta es más rápida y precisa frente al impacto de los ataques.

“La importancia de la IA en la ciberseguridad radica en su capacidad de revolucionar la forma en que detectamos, prevenimos y respondemos a las amenazas digitales”, asevera Gutiérrez, quien además destaca la utilización del algoritmo para remediar los riesgos que enfrentamos en el mundo digital.

“A medida que la IA continúa evolucionando, es probable que su papel en la ciberseguridad siga creciendo en importancia. Se espera que los avances en el campo del aprendizaje automático y la inteligencia artificial refuercen aún más la capacidad de las empresas para prevenir, detectar y responder a las amenazas cibernéticas en tiempo real”, afirma el country manager de A3Sec.

En este sentido, la importancia de la inteligencia artificial recae en el uso que se le pueda dar: desde someterla al aprendizaje de información, la cual no debe conocer y desarrollar una herramienta sumamente peligrosa, hasta aplicarla para garantizar la seguridad digital de una organización. Es por eso que, a través de un uso indicado, la inteligencia artificial puede colaborar a crear un mundo digital estable y seguro.

]]>
232718
TikTok lanza nuevas medidas para etiquetar y verificar contenido generado con IA https://www.chanboox.com/2024/05/09/tiktok-lanza-nuevas-medidas-para-etiquetar-y-verificar-contenido-generado-con-ia/ Thu, 09 May 2024 23:27:48 +0000 https://www.chanboox.com/?p=230432

TikTok trabaja en un etiquetado para verificar contenido generado por inteligencia artificial

Notipress.- TikTok, en su búsqueda de ayudar a los creadores, comenzó a etiquetar de forma automática el contenido generado por IA (AIGC) cuando se sube desde otras plataformas. En colaboración con Coalition for Content Provenance and Authenticity (C2PA), TikTok pasó a convertirse en la primera plataforma de compartición de vídeos en implementar tecnología de credenciales de contenido. De esta forma, la plataforma puede colaborar con los usuarios a combatir la desinformación en línea. Por otro lado, la red social está lanzando nuevos recursos de alfabetización mediática, desarrollados con la ayuda de expertos como Mediawise.

Según un comunicado oficial de TikTok, la plataforma está trabajando para fomentar la transparencia y la alfabetización en materia de IA. El 9 de mayo compartió actualizaciones para ayudar a los creadores de contenido generado con inteligencia artificial (IA) a expresar segura y responsablemente su creatividad.

El etiquetado generado por TikTok ayuda a esclarecer cuáles son los contenidos generados por inteligencia artificial. Es por eso que la plataforma exige también a los creadores que etiqueten los AIGC realistas. Esta función ha sido utilizada por más de 37 millones de usuarios desde el año pasado. El procedimiento consiste en designar una credencial que adjunta “metadatos” al contenido. De esta forma, se reconoce y etiqueta automáticamente los AIGC. Cabe destacar, se espera que a partir del 9 de mayo se aplique a todos los usuarios del mundo.

Por otra parte, en los próximos meses se les aplicará a los contenidos de la misma plataforma las credenciales reguladoras. Esto significa que cualquiera puede utilizar la herramienta de verificación de C2PA para identificar el AIGC que se hizo en TikTok y también saber cuándo, dónde y cómo se hizo o editó el contenido. TikTok se une a la Iniciativa de Autenticidad de Contenido (CAI) (liderada por Adobe) con el fin de impulsar la adopción de las credenciales de contenido en la industria de contenidos en la red. En este sentido, la red social se convierte en la primera plataforma para compartir videos en utilizar las credenciales de contenido.

La consejera general y directora de confianza de Adobe, Dana Rao, celebró la decisión de TikTok y dijo que “con la amplia comunidad de creadores y usuarios de TikTok a nivel mundial, estamos encantados de darles la bienvenida tanto a la C2PA como al CAI, ya que se embarcan en el viaje para proporcionar más transparencia y autenticidad en la plataforma. En un momento en el que cualquier contenido digital puede ser alterado, es esencial ofrecer al público formas de discernir lo que es cierto. El anuncio de hoy es un paso fundamental para lograr ese resultado”.

]]>
230432
Meta creará un equipo contra la desinformación y el uso indebido de la IA en las elecciones de la UE https://www.chanboox.com/2024/02/26/meta-creara-un-equipo-contra-la-desinformacion-y-el-uso-indebido-de-la-ia-en-las-elecciones-de-la-ue/ Mon, 26 Feb 2024 10:57:17 +0000 https://www.chanboox.com/?p=223675

BRUSELAS, 26 feb (Reuters) – Meta, propietaria de Facebook, creará un equipo para luchar contra la desinformación y el abuso de la inteligencia artificial (IA) generativa en vísperas de las elecciones del Parlamento Europeo en junio, en un contexto de preocupación por la interferencia electoral y los contenidos engañosos generados por IA.

El rápido crecimiento de la IA generativa, que puede crear texto, imágenes y vídeos en cuestión de segundos en respuesta a instrucciones, ha hecho temer que la nueva tecnología pueda utilizarse para perturbar las principales elecciones de este año en todo el mundo.

Las elecciones al Parlamento Europeo tendrán lugar del 6 al 9 de junio. Sus 720 diputados, junto con los países de la UE, aprueban nuevas políticas y leyes comunitarias.

“A medida que se acerquen las elecciones, activaremos un Centro de Operaciones Electorales para identificar posibles amenazas y poner en marcha medidas de mitigación en tiempo real”, dijo en un blog Marco Pancini, responsable de Meta para asuntos de la UE.

Según Pancini, los expertos de los equipos de inteligencia, ciencia de datos, ingeniería, investigación, operaciones, política de contenidos y jurídico de la empresa se centrarán en combatir la desinformación, hacer frente a las operaciones de influencia y contrarrestar los riesgos relacionados con el abuso de la IA generativa.

Meta, que actualmente trabaja con 26 organizaciones independientes de verificación de datos en toda la Unión Europea en 22 idiomas, añadirá tres nuevos socios en Bulgaria, Francia y Eslovaquia, dijo Pancini.

Meta, Microsoft, OpenAI y otras 17 empresas tecnológicas acordaron a principios de mes colaborar para evitar que contenidos engañosos de inteligencia artificial interfieran en las elecciones de este año en todo el mundo.

 

 

 

]]> 223675 Negacionismo climático da a YouTube millones de dólares al año, según informe https://www.chanboox.com/2024/01/16/negacionismo-climatico-da-a-youtube-millones-de-dolares-al-ano-segun-informe/ Tue, 16 Jan 2024 22:42:44 +0000 https://www.chanboox.com/?p=220760

Creadores de contenido utilizan nuevas tácticas que eluden las políticas de YouTube para combatir la desinformación

 

NOTIPRESS.- De acuerdo con un informe elaborado por The Center for Countering Digital Hate (CCDH), YouTube se está embolsando millones de dólares al año por la publicidad en videos de negacionismo climático. La ONG utilizó inteligencia artificial para analizar más de 12 mil videos en los últimos seis meses, en alrededor de 96 canales de YouTube, propiedad de Alphabet.

YouTube, una de las redes sociales más utilizadas en el mundo, gana millones de dólares al año con la publicidad de canales que hacen afirmaciones falsas sobre el cambio climático. Esto debido a que los creadores de contenido utilizan nuevas tácticas, las cuales eluden las políticas de la red social para combatir la desinformación, según un informe publicado el 16 de enero de 2024.

Según el informe del CCDH, consultado por NotiPress, los canales revisados promovían el negacionismo climático con contenidos que socavan el consenso científico sobre el cambio climático. Estos contenidos negacionistas suponen, el comportamiento humano no está contribuyendo a los cambios a largo plazo en la temperatura y los patrones climáticos.

Asimismo, el reporte de la organización no gubernamental establece un cambio de paradigma de cara al negacionismo climático. Antes, los defensores de esta idea aseguraban que el cambio climático “no existía”; ahora no se niega su existencia, pero se asevera, “ya no hay nada que hacer para contrarrestarlo”.

CCDH indica, la plataforma de videos genera hasta 13.4 millones de dólares al año con los anuncios de los canales analizados en el informe. El grupo afirma que el modelo de inteligencia artificial se diseñó para poder distinguir entre el escepticismo razonable y la información falsa.

Recordando, según las políticas de Google, los videos que defienden el negacionismo climático tienen explícitamente prohibido generar ingresos publicitarios en YouTube. No obstante, CCDH llama a la plataforma a actuar de forma más activa de cara a la desinformación.

 

 

]]> 220760 Siete principios contra la desinformación y las noticias falsas en las redes sociales https://www.chanboox.com/2023/11/06/siete-principios-contra-la-desinformacion-y-las-noticias-falsas-en-las-redes-sociales/ Mon, 06 Nov 2023 11:52:34 +0000 https://www.chanboox.com/?p=216660

Asegurar el respeto los derechos humanos y crear organismo reguladores que supervisen estas plataformas, garantizando la libertad de expresión, están entre las medidas que la ONU propone para limitar el daño y el impacto de manipuladores e ignorantes.

 

La Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) ha presentado este lunes un plan de acción para combatir la desinformación, la incitación al odio y la manipulación en las redes sociales, que representan “amenazas importantes para la vida en sociedad y la estabilidad”.

Este plan de acción es el resultado de un proceso de consulta a una escala sin precedentes en el sistema de las Naciones Unidas, con más de 10.000 contribuciones de 134 países recogidas a lo largo de los últimos 18 meses. 

En 40 páginas, el documento detalla los Principios que deben respetarse y las medidas concretas que deben aplicar todas las partes interesadas: gobiernos, autoridades reguladoras, sociedad civil y las propias plataformas.

Siete principios fundamentales que deben respetarse

Las medidas se articulan en torno a 7 principios que deben respetarse, de modo que: 

el impacto sobre los derechos humanos sea la brújula para la toma de decisiones en cada etapa por todas las partes interesadas 

  •  en todas partes del mundo se establezcan reguladores independientes y públicos, con un papel claramente definido y recursos suficientes para llevar a cabo su misión
  • estos reguladores independientes trabajan en red y en estrecha coordinación, para evitar que las empresas digitales se aprovechen de las disparidades regulatorias entre los países
  • la moderación de contenidos debe ser posible y eficaz a la escala adecuada, en todas las regiones y en todas las lenguas
  • se establezca la responsabilidad y la transparencia en los algoritmos, cuya mecánica se basa con demasiada frecuencia en provocar exageraciones en detrimento de la fiabilidad
  • las plataformas tomen más iniciativas para educar y formar a los usuarios en el pensamiento crítico
  • los reguladores y las plataformas tomen medidas más contundentes en las situaciones más delicadas, especialmente durante las elecciones y las crisis

“La liberación de la palabra a través de la tecnología digital ha representado un inmenso progreso. Pero las redes sociales también han acelerado y amplificado la difusión de información falsa y la incitación al odio, lo que plantea graves riesgos para la sociedad, la paz y la estabilidad”, dijo la directora general de la agencia de la ONU al presentar el informe.

Audrey Azoulay añadió que para proteger el acceso a la información, “debemos regular sin demora estas plataformas, protegiendo al mismo tiempo la libertad de expresión y los derechos humanos”.

Los representantes de los reguladores independientes ya han acogido favorablemente la iniciativa de la UNESCO, y varios de ellos, sobre todo en África y América Latina, han indicado que están dispuestos a empezar a aplicar estas medidas. Con este fin, la UNESCO organizará la primera Conferencia Mundial de Reguladores a mediados de 2024. 

Las redes sociales también han acelerado y amplificado la difusión de información falsa y la incitación al odio, lo que plantea graves riesgos para la sociedad.

La Organización también apoyará a sus Estados Miembros en la transposición de este plan de acción a sus leyes y reglamentos. Para ello está movilizando una financiación específica, que ya cuenta con el apoyo de un millón de euros de la Comisión Europea.

Hay que preservar la libertad de expresión

“Hay un requisito cardinal que ha guiado nuestro trabajo: el de preservar siempre la libertad de expresión y todos los demás derechos humanos. Coartar o restringir la libertad de expresión sería una solución terrible. Los medios de comunicación y las herramientas de información libres, de calidad e independientes son la mejor respuesta a largo plazo a la desinformación”, explicó la responsable de la UNESCO.

En particular, las plataformas deben contar con equipos de moderadores cualificados, en número suficiente y que hablen todas las lenguas principales de sus redes sociales, para que puedan llevar a cabo un control fiable y eficaz de los contenidos publicados en línea. 

También deben garantizar la transparencia del proceso de moderación, incluso cuando esté automatizado mediante algoritmos. 

Además, deben facilitar su uso, en todas las lenguas principales del país en el que operan, e informar sobre las denuncias y quejas de los usuarios.

La estrategia también contine las medidas necesarias para garantizar la integridad electoral, en particular mediante evaluaciones del riesgo electoral, una imagen de marca clara y una mayor transparencia de la publicidad política y su orientación, y durante situaciones de emergencia, como conflictos armados y catástrofes.

También se incluyeron elementos específicos para el sector cultural, destacando los riesgos a los que se enfrentan los artistas y la necesidad de acceso en línea a “contenidos culturales diversos” como un derecho humano fundamental que debe salvaguardarse, en referencia a la Declaración adoptada unánimemente por los Estados Miembros de la UNESCO en la Conferencia MONDIACULT en septiembre de 2022.

El plan de acción de la UNESCO es el resultado de un proceso de consulta a una escala sin precedentes en el sistema de las Naciones Unidas, con más de 10.000 contribuciones de 134 países recogidas a lo largo de los últimos 18 meses. En 40 páginas, detalla los Principios que deben respetarse y las medidas concretas que deben aplicar todas las partes interesadas: gobiernos, autoridades reguladoras, sociedad civil y las propias plataformas. 

Urgente necesidad de actuar

La publicación del plan de acción de la UNESCO va acompañada de una encuesta de opinión realizada por IPSOS para la UNESCO entre 8000 personas de 16 países en los que se celebrarán elecciones en 2024. 

La encuesta muestra que el 85% de los ciudadanos están preocupados por el impacto de la desinformación en línea, en un momento en que las redes sociales se han convertido en la principal fuente de información para una gran mayoría de ellos.

La misma encuesta indica que el 87% de los ciudadanos cree que esta desinformación ya ha tenido un impacto importante en la vida política de su país y teme que influya en los resultados de las elecciones previstas en su país el año que viene. 

En consecuencia, el 88% desea que los gobiernos y los reguladores resuelvan rápidamente este problema regulando las redes sociales.

 

 

Boletín de prensa de la ONU

]]> 216660 A un año de la compra de Twitter de Elon Musk, X presume más libertad de expresión https://www.chanboox.com/2023/10/28/a-un-ano-de-la-compra-de-twitter-de-elon-musk-x-presume-mas-libertad-de-expresion/ Sat, 28 Oct 2023 22:03:47 +0000 https://www.chanboox.com/?p=215588

Yaccarino presumió más libertad de prensa y menos desinformación en X

 

NOTIPRESS.- El 27 de octubre de 2023 se cumplió el primer año de X, cuando Twitter fue comprada por Elon Musk en 2022. Linda Yaccarino, CEO de la red de microblogging anunció avances y presumió más libertad de expresiónnuevas funcionalidades y resultados concretos contra la desinformación.

Elon Musk publicó en su cuenta “el pájaro fue liberado” y felicitó al equipo de ingeniería por logros como reducir de 700 mil líneas de código de software a 70 mil en el algoritmo “para ti” o reducir el spam en mensajes directos en un 95%.

De acuerdo a Yaccarino, 500 millones de usuarios al mes visitan la plataforma X y diariamente, más de 7 mil 800 millones de minutos son consumidos debido a la implementación de nuevos productos de video. Un usuario promedio navega 32 minutos por día la plataforma X, bastante lejos de los 95 minutos que ostenta TikTok.

Asimismo, la CEO informó, X redujo la desinformación con la puesta en marcha de las notas de la comunidadCommunity Notes tiene 100 mil colaboradores en 44 países. Las notas se ven decenas de millones de veces al día y se vuelven mucho más rápidas, “una necesidad en un mundo donde la información de última hora es intrínsecamente incierta y X ha superado a los medios tradicionales”, afirmó.

“Hemos logrado avances reales en nuestro trabajo para combatir la desinformación de todos los lados en X”

Entre las funcionalidades nuevas se encuentran las de mensajería y llamadas. Recientemente X lanzó un servicio de llamadas de audio y video entre usuarios. Esto permite a los usuarios comunicarse sin necesidad de conocer el número telefónico de la otra persona. Los videos largos destacaron al permitir hasta 3 horas de contenido en 720p o 2 horas en 1080p.

La API de Twitter fue limitada en el primer año de X, convirtiéndose en un servicio de pago la obtención de métricas o búsqueda de publicaciones. Yaccarino escribió, “hemos optimizado y consolidado nuestra oferta de suscripción para atender a desarrolladores de todos los tamaños, mientras continuamos brindando soporte gratuito a servicios públicos como MTA, NWS y muchos más”.

Al estilo Elon Musk, Yaccarino concluyó, si en 12 meses X pudo lograr avances, en el siguiente año habrá novedades más importantes como acceso a noticias de pago. Como escrito por Musk, su directora ejecutiva expresó, “un año después, el futuro de X es brillante”.

 

 

]]> 215588 La UE pide a Meta y TikTok claridad sobre las medidas contra la desinformación y contenidos ilegales https://www.chanboox.com/2023/10/19/la-ue-pide-a-meta-y-tiktok-claridad-sobre-las-medidas-contra-la-desinformacion-y-contenidos-ilegales/ Thu, 19 Oct 2023 11:35:03 +0000 https://www.chanboox.com/?p=214436

BRUSELAS, 19 oct (Reuters) – La Comisión Europea dijo el jueves de que había enviado a Meta y TikTok una solicitud de información sobre las medidas que las empresas han adoptado para cumplir las obligaciones relacionadas con la difusión de desinformación y contenidos ilegales.

La Comisión dijo que había pedido a las empresas que aclararan qué iban a hacer para proteger la integridad de las elecciones y tras los ataques terroristas perpetrados por Hamás en todo Israel, “en particular en lo que respecta a la difusión y amplificación de contenidos ilegales y desinformación”.

 

 

 

 

 

]]> 214436 Así se ha combatido la desinformación en TikTok según la empresa https://www.chanboox.com/2023/09/30/asi-se-ha-combatido-la-desinformacion-en-tiktok-segun-la-empresa/ Sun, 01 Oct 2023 02:17:05 +0000 https://www.chanboox.com/?p=213073

Estas son las acciones que TikTok ha tomado para combatir la desinformación

 

NOTIPRESS.- TikTok presentó su segundo informe en relación con el Código de Buenas Prácticas de la Unión Europea en materia de Desinformación. La red social china aseguró que no solamente se protege la experiencia eliminando la desinformación perjudicial, sino que invierte en iniciativas para conectar a la comunidad con información autorizada.

Durante los primeros seis meses del 2023, TikTok lanzó campañas de alfabetización mediática en ocho países de Europa del Este. Su objetivo, era ayudar a los ciudadanos a enfrentarse a contenidos relacionados con el conflicto ruso-ucraniano y poder contener información errónea.

Asimismo, se realizó una función de búsqueda en Europa y en todo el mundo, que dirige a las personas a buscar contenidos relacionados con el cambio climático a información fidedigna. Durante tres meses, la función de búsqueda tuvo alrededor de mil 800 millones de impresiones en el continente.

También se anunció el lanzamiento de una nueva herramienta para ayudar a los creadores a etiquetar el contenido generado por IA. Asimismo, se participará en el subgrupo de IA generativa para establecer el Código, al ser una área importante y en evolución en el contexto de la desinformación.

Elecciones europeas

Como parte de su compromiso para proteger la integridad de las elecciones, se buscó a los usuarios conectarlos con información sobre los comicios. Por ejemplo, el Centro Electoral de la aplicación motivó a la población griega a usar la página Global Fact Check para conocer la desinformación electoral.

Previo a las elecciones españolas, se trabajó con Newtral y Maldita para producir videos educativos sobre el proceso y desinformación electoral. Por su parte, en los comicios finlandeses se lanzó una guía de búsqueda para ofrecer a los usuarios información actualizada.

Con el objetivo de proveer información, se recurrió a expertos regionales independientes para que expliquen al equipo de TikTok el panorama local y político, así sobre cómo los comportamientos online pueden influir. Tiktok anunció el uso de etiquetas en contenidos creados con inteligencia artificial de manera automática.

De acuerdo con el informe, se trabajó con 15 organizaciones acreditadas por la International Fact-Checking Network, llegando a cubrir más de 50 idiomas. En ese sentido, durante los primeros seis meses del 2023 se amplió el programa de comprobación de hechos en nueve países de la Unión Europea y del Espacio Económico Europeo.

 

 

 

]]> 213073 Guterres: pide una era de integridad a las redes sociales para detener la desinformación y la incitación al odio https://www.chanboox.com/2023/06/12/guterres-pide-una-era-de-integridad-a-las-redes-sociales-para-detener-la-desinformacion-y-la-incitacion-al-odio/ Tue, 13 Jun 2023 03:37:12 +0000 https://www.chanboox.com/?p=202605

El titular de la ONU indica que el estado de alarma sobre la amenaza que supone la rápida implantación de la inteligencia artificial no debe ocultar el daño que actualmente causan las actuales tecnologías digitales que amenazan la democracia y el respeto de los derechos humanos.

 

La proliferación del odio y las mentiras en internet representa un “grave peligro a escala global” que el mundo debe afrontar, declaró el Secretario General de las Naciones Unidas en la presentación de su informe sobre la veracidad de la información en las plataformas digitales.

António Guterres subrayó que el estado de alarma ante la posible amenaza que supone el rápido desarrollo de la inteligencia artificial no debe ocultar el daño que están causando actualmente las tecnologías digitales que permiten la manipulación y la desinformación en línea.

“La proliferación del odio y la mentira en el espacio digital está causando un grave daño global, ahora mismo. Y alimenta conflictos, muerte y destrucción, ahora. También amenaza la democracia y los derechos humanos y socava la salud pública y la acción por el clima… ahora”, explicó.

El titular de la ONU destacó los beneficios que aportan las plataformas digitales al apoyar a las comunidades en tiempos de crisis y lucha, al potenciar las voces marginadas y la ayuda a movilizar movimientos globales por la justicia racial y la igualdad de género.

Sin embargo, indicó que también se usan indebidamente para desvirtuar la divulgación científica y propagar la desinformación y el odio a miles de millones de personas, avivando conflictos, amenazando la democracia, los derechos humanos, socavando la salud pública y la acción climática.

Por ello, señaló que esta amenaza mundial exige una acción internacional coordinada para lograr que el espacio digital sea más seguro e inclusivo, y que, al mismo tiempo, proteja los derechos humanos.

“Sus propuestas están dirigidas a crear medidas de protección para ayudar a los gobiernos a unirse en torno a directrices que promuevan los hechos, al tiempo que exponen conspiraciones y mentiras, y salvaguardan la libertad de expresión e información”, especificó.

Respuestas insuficientes

Guterres señaló la responsabilidad de algunas empresas tecnológicas que no hicieron lo suficiente y actuaron demasiado tarde para evitar que sus plataformas contribuyeran a la propagación de la violencia y el odio, mientras que los gobiernos recurrieron ocasionalmente a medidas drásticas, como cierres y prohibiciones del uso de internet, que carecen de base jurídica y vulneran los derechos humanos.

El informe presenta el marco para conseguir una respuesta mundial organizada a través de un Código de Conducta para la veracidad de la información en las plataformas digitales, delineando posibles barreras para contener esta amenaza y protegiendo al mismo tiempo la libertad de expresión e información.

Propuestas del Código de Conducta

  • Los gobiernos, las empresas tecnológicas y otras partes interesadas deben abstenerse de utilizar, apoyar o amplificar la desinformación y la incitación al odio con cualquier fin
  • Los gobiernos deben garantizar un panorama mediático libre, viable, independiente y plural, con fuertes protecciones para los periodistas
  • Las plataformas digitales deben garantizar la seguridad y la privacidad desde el diseño en todos los productos, junto con una aplicación coherente de las políticas y los recursos en todos los países e idiomas
  • Todas las partes interesadas deben tomar medidas urgentes e inmediatas para garantizar que todas las aplicaciones de inteligencia artificial sean seguras, responsables y éticas, y cumplan con las obligaciones en materia de derechos humanos
  • Las empresas tecnológicas deben alejarse de los modelos de negocio que priorizan el compromiso por encima de los derechos humanos, la privacidad y la seguridad
  • Los anunciantes y las plataformas digitales deben garantizar que los anuncios no se coloquen junto a mensajes de desinformación o incitación al odio en línea, y que no se promuevan anuncios que contengan desinformación
  • Las plataformas digitales deben garantizar una transparencia significativa y permitir el acceso de investigadores y académicos a los datos, respetando al mismo tiempo la privacidad de los usuarios

La participación no puede estar por encima de los derechos humanos

Interrogado por la prensa sobre cómo confía en que las empresas tecnológicas y los gobiernos tomarán medidas concretas para que el espacio digital sea más seguro e inclusivo, Guterres destacó la necesidad de encontrar mecanismos que incluyan enfoques en los que participen múltiples partes interesadas para definir pautas, líneas rojas y, al mismo tiempo, intercambiar buenas prácticas y garantizar el cuestionamiento de los modelos de negocio.

“Y, por supuesto, hay un aspecto central: estas plataformas deben ganar dinero. Pero el problema es que el actual modelo de negocio prioriza la participación frente a la privacidad, la verdad y los derechos humanos de las personas. (…) Así que es importante que las plataformas entiendan que, naturalmente, una actividad rentable no puede crear beneficios masivos a costa de un modelo participativo. Eso está por encima de cualquier otra consideración”, resaltó.

Creación de un nuevo consejo asesor científico

El Secretario General anunció que durante los próximos días nombrará un consejo asesor científico que incluirá a una serie de expertos externos, entre ellos dos en inteligencia artificial y los jefes científicos de la Unión Internacional de Telecomunicaciones y la UNESCO.

Asimismo, expresó la intención de crear un órgano asesor sobre inteligencia artificial, tras la próxima Cumbre de los Objetivos de Desarrollo Sostenible que se celebrará los próximos 18 y 19 de septiembre.

 

 

 

 

 

 

 

FUENTE: ACI PRENSA

]]> 202605