regulación de IA – U Yotoch Chanboox Boox https://www.chanboox.com Sitio personal de Enrique Vidales Ripoll Wed, 05 Mar 2025 00:03:50 +0000 es hourly 1 https://wordpress.org/?v=6.7.2 82470160 Entregan constancias a participantes del taller sobre Introducción a la Inteligencia Artificial https://www.chanboox.com/2025/03/04/entregan-constancias-a-participantes-del-taller-sobre-introduccion-a-la-inteligencia-artificial/ Tue, 04 Mar 2025 23:18:01 +0000 https://www.chanboox.com/?p=257261

Fue impartido a legisladoras y legisladores, técnicos, empleados del Senado y de la Cámara de Diputados.
 
El presidente de la Comisión de Análisis, Seguimiento y Evaluación sobre la Aplicación y Desarrollo de la Inteligencia Artificial en México, Rolando Rodrigo Zapata Bello, señaló que la Inteligencia Artificial (IA) es una tecnología que está cambiando la geopolítica y marca las pautas para el desarrollo económico mundial.
De ahí, dijo, que es fundamental que en México conozcamos todos los potenciales que se puedan generar con la IA, sus beneficios y riesgos, razón por la cual se requiere de un marco normativo esencial.
Durante la entrega de constancias del taller sobre Introducción a la Inteligencia Artificial, una visión desde la perspectiva regulatoria, la diputada Celia Esther Fonseca Galicia, del PVEM, aseveró que en estos tiempos la IA es parte de la vida cotidiana, lo que implica que todas y todos se involucren.
Humberto Ambriz Delgadillo, diputado del PRI, refirió que es importante tener conocimiento en cuanto la IA para poder legislar en la materia, de manera que para abonar en el tema se tiene que ser responsable.
Manuel Priego, vicepresidente de la Canieti, sostuvo que en el tema de la Inteligencia Artificial se requiere una visión política, reunirse con expertos para poder regularla, para crear políticas públicas, fomentar la innovación y guardar los derechos fundamentales, porque “hay que democratizar el conocimiento”.
De Siglo XXII, Derecho y Tecnología, Pablo Pruneda Gross, abundó que tener la posibilidad de generar una “buena” regulación en México sobre la IA, ayudará a que empresario e ingenieros puedan desarrollar sus propias expresiones, necesidades y aterrizajes de inteligencia artificial.
El taller Introducción a la Inteligencia Artificial, una visión desde la perspectiva regulatoria, fue realizado a propuesta de la Comisión de Análisis, Seguimiento y Evaluación sobre la Aplicación y Desarrollo de la Inteligencia Artificial en México, que encabeza el senador Rolando Rodrigo Zapata Bello, patrocinado por Microsoft e impartido por la Canieti y la organización Siglo XXII, Derecho y Tecnología.
El objetivo del taller es construir una visión conjunta sobre el marco normativo que regule en México la inteligencia artificial.

Boletín de prensa

]]>
257261
Google modifica su política de ética en IA y elimina restricciones sobre armas y vigilancia https://www.chanboox.com/2025/02/05/google-modifica-su-politica-de-etica-en-ia-y-elimina-restricciones-sobre-armas-y-vigilancia/ Thu, 06 Feb 2025 02:04:02 +0000 https://www.chanboox.com/?p=254542

Google elimina restricciones sobre armas y vigilancia en su política de IA

Notipress.- Google actualizó su política de ética en inteligencia artificial, eliminando su anterior compromiso de no utilizar esta tecnología para el desarrollo de armas o sistemas de vigilancia. En versiones anteriores de sus principios, la compañía había establecido explícitamente que evitaría aplicaciones de IA destinadas a causar daño o que fueran utilizadas para vigilancia fuera de las normas internacionales.

El cambio se produce en un contexto de rápida evolución en la industria de la inteligencia artificial. Desde el lanzamiento de ChatGPT por OpenAI en 2022, el desarrollo de la IA avanzó a un ritmo acelerado, mientras que las regulaciones y legislaciones sobre su uso ético aún no lograron seguir el mismo paso.

Nueva postura de Google ante la IA y la seguridad nacional

A través de una publicación, James Manyika, vicepresidente senior de investigación, laboratorios, tecnología y sociedad, junto con Demis Hassabis, jefe de Google DeepMind, destacaron que los marcos regulatorios en países democráticos influyeron en la evolución de la postura de Google sobre la IA. “Hay una competencia global en curso por el liderazgo en IA dentro de un panorama geopolítico cada vez más complejo. Creemos que las democracias deberían liderar el desarrollo de la IA, guiadas por valores fundamentales como la libertad, la igualdad y el respeto por los derechos humanos”, señala la publicación.

En este sentido, la compañía enfatiza la necesidad de colaboración entre gobiernos, empresas y organizaciones que compartan esos valores. La mira estaría puesta en crear una IA que proteja a las personas, impulse el crecimiento global y refuerce la seguridad nacional.

De la ética a la estrategia empresarial

La compañía presentó por primera vez sus Principios de IA en 2018, mucho antes de que la tecnología alcanzara su nivel actual de integración en la sociedad. En aquel entonces, la empresa tomó decisiones significativas para alinearse con esos valores.

Ese mismo año, Google se retiró de una oferta de US$ 10.000 millones para un contrato de computación en la nube con el Pentágono, argumentando que no podía garantizar que dicho contrato se ajustara a sus principios éticos en IA. Además, más de 4.000 empleados firmaron una petición exigiendo que Google estableciera una política clara que prohibiera el desarrollo de tecnología para la guerra. La protesta incluyó la renuncia de alrededor de una docena de empleados en desacuerdo con la postura de la empresa.

Sin embargo, la actualización reciente de los principios de IA de Google representa un cambio significativo respecto a esa posición anterior. Aunque la compañía sigue enfatizando el uso responsable de la inteligencia artificial, la eliminación de restricciones explícitas sobre armas y vigilancia podría abrir nuevas oportunidades para su colaboración con entidades gubernamentales y militares.

]]>
254542
Encuesta revela preocupaciones y tendencias de adopción en torno a la influencia de IA https://www.chanboox.com/2024/12/20/encuesta-revela-preocupaciones-y-tendencias-de-adopcion-en-torno-a-la-influencia-de-ia/ Fri, 20 Dec 2024 19:16:55 +0000 https://www.chanboox.com/?p=250502

Notipress.- Con la creciente presencia de la inteligencia artificial en la vida diaria, una encuesta reciente de la Universidad Rutgers-New Brunswick revela las actitudes del público hacia estas tecnologías. La investigación destaca preocupaciones y patrones de uso que reflejan su impacto transformador en la sociedad.

Realizada como parte del proyecto National AI Opinion Monitor (NAIOM), la encuesta, que involucró a casi 5 mil participantes, muestra que más de la mitad de los estadounidenses están preocupados por el impacto de la IA en la política (58%) y los medios de comunicación (53%). Según los investigadores, estas inquietudes están relacionadas con posibles riesgos de desinformación y manipulación, especialmente en un entorno electoral como el de 2024.

A pesar de estas preocupaciones, un significativo 53% de los encuestados afirma haber utilizado herramientas de IA generativa como ChatGPT, Google Gemini o Microsoft Copilot. Estas tecnologías, que permiten generar contenido original como texto, imágenes y videos, se integraron en tareas cotidianas, incluidas consultas relacionadas con la salud.

Actitudes divergentes y desigualdades en el uso

La encuesta destaca notables diferencias demográficas. Los hombres jóvenes, con mayor nivel educativo y mejores ingresos, son más propensos a utilizar y mostrar interés por herramientas de IA. En contraste, los adultos mayores y las personas con menor nivel educativo enfrentan barreras que limitan su acceso y comprensión, lo que podría exacerbar la brecha digital.

En términos de aceptación para tareas específicas, los estadounidenses muestran un respaldo moderado hacia la IA en actividades domésticas (48%), Aun así, se oponen mayoritariamente a su uso en cirugías (57%) y conducción de vehículos (53%).

Además, el 30% de los encuestados interactúa con contenido generado por IA diariamente, y el 86% de ellos considera estas interacciones útiles. Esto subraya tanto la creciente dependencia como la utilidad práctica de estas tecnologías.

Un momento decisivo para la confianza en la IA

Katherine Ognyanova, profesora asociada de Rutgers y coautora del informe, señala que la adopción de estas tecnologías está marcando un punto de inflexión: “Es fundamental comprender cómo los estadounidenses utilizan y perciben la IA en la actualidad, ya que la confianza en estas tecnologías determinará su adopción, desarrollo y regulación”. La investigadora señaló también que “estamos en un momento crucial en el que la opinión pública sobre la IA se está formando y cambiando rápidamente a medida que las personas interactúan con ella de primera mano y se encuentran con narrativas relacionadas en las noticias”.

Vivek Singh, también profesor asociado y coautor del informe, resalta la aceleración del uso de la IA en diversos ámbitos: “Hoy en día, la IA ya no se limita a los algoritmos de las empresas tecnológicas; se ha convertido en una parte integral de la vida cotidiana“.

El futuro de la investigación en IA

El proyecto NAIOM busca proporcionar una base de datos continua sobre cómo evolucionan las actitudes hacia la IA en diferentes sectores de la población. Las encuestas se realizarán tres veces al año, con un enfoque especial en comunidades minoritarias, jóvenes y adultos mayores. Además, explorarán temas como la regulación, la confianza y el impacto laboral. NAIOM aspira a servir como un recurso clave para responsables políticos, medios de comunicación y el público, ofreciendo una guía basada en datos para enfrentar los desafíos y oportunidades de la IA.

]]>
250502
El nuevo modelo de IA de OpenAI es capaz de engañar al usuario, indica estudio https://www.chanboox.com/2024/12/09/el-nuevo-modelo-de-ia-de-openai-es-capaz-de-enganar-al-usuario-indica-estudio/ Mon, 09 Dec 2024 21:53:42 +0000 https://www.chanboox.com/?p=249436

OpenAI o1 puede engañar intencionalmente al usuario y perseguir fines propios, asegura estudio

Notipress.- El nuevo modelo de OpenAI presenta un algoritmo con capacidades superiores de razonamiento. De hecho, es tan superior que es capaz de engañar a los usuarios y actuar en contra de las indicaciones explícitas en múltiples ocasiones. Así lo aseguraron los supervisores de riesgo de la empresa, y un equipo externo de la firma de seguridad Apollo Research.

Los investigadores sugieren que la reciente versión puede estar persiguiendo objetivos propios. Por su parte, OpenAI reconoce que esta capacidad puede ser utilizada con fines maliciosos.

Si bien el fenómeno puede observarse en soluciones de IA de Google, Meta y Anthropic, OpenAI o1 presenta las tasas más altas de comportamiento engañoso. Según el informe, el modelo alteró información para favorecer sus intereses, contradiciendo las instrucciones del usuario en un 19% durante las pruebas preliminares.

La plataforma incluso intentó desactivar los mecanismos de supervisión que garantizan la confiabilidad de sus respuestas en el 5% de los casos. Además, OpenAI o1 es 20% más manipulador que su antecesor, GPT-4o. “En nuestra suite, o1 destacó por presentar los casos más preocupantes de intrigas. No revela su razonamiento interno al usuario y sigue siendo el más consistentemente engañoso”, indicó Apollo Research.

Por su parte, la empresa admitió que el 0,17% de las respuestas de su nueva IA son falsas. A pesar de ser un margen bajo, los investigadores se sienten preocupados por la capacidad para manipular al usuario. Al confrontarlo, el modelo de IA negó las acusaciones y construyó respuestas ilusorias en el 99% de los casos.

Aun así, el principal temor radica en que la IA pueda evadir el control humano y actuar de manera autónoma si logra desarrollar habilidades de planificación y tiene acceso a recursos necesarios. A pesar de que los evaluadores aclaran que la IA se encuentra aun lejos de esa posibilidad, sostienen que se requiere reforzar las regulaciones.

“Creemos de manera subjetiva que es poco probable que estos casos deriven en resultados catastróficos, ya que las capacidades de los agentes inteligentes [de OpenAI] no parecen ser suficientes. Sin embargo, sus protocolos de contención no están diseñados para medir y responder a este riesgo de forma directa”, expone Apollo Research.

En efecto, OpenAI sostiene que la empresa está implementando mecanismos de monitoreo en la “cadena de pensamiento” de o1. En las primeras pruebas descubrieron que a veces la IA genera información errónea de manera intencional. Esto se debe a que el modelo está programado para complacer al usuario de todas las formas posibles, explicaron desde OpenAI. Además, indican que el comportamiento podría ser consecuencia de una técnica de entrenamiento basada en recompensas.

Anteriormente, OpenAI fue acusada de omitir los mecanismos de seguridad durante sus procesos de producción y comercialización. La empresa fue señalada por oponerse a la regulación de la IA en favor de políticas que promuevan objetivos corporativos de la organización. Según OpenSecrets, en el primer semestre de 2024, la compañía destinó 800 mil dólares en acciones de cabildeo para incidir en legislaciones federales que impacten en el desarrollo tecnológico.

]]>
249436
Médicos en México demandan regulación del uso de IA en la atención médica https://www.chanboox.com/2024/12/02/medicos-en-mexico-demandan-regulacion-del-uso-de-ia-en-la-atencion-medica/ Tue, 03 Dec 2024 01:00:49 +0000 https://www.chanboox.com/?p=248837

Reporte subraya preocupaciones sobre el impacto de la IA en la relación médico-paciente y la necesidad de marcos regulatorios

Notipress.- Un 88% de los médicos en México considera indispensable establecer un marco jurídico que regule el uso de la inteligencia artificial (IA) en la atención médica. Esta conclusión forma parte del “Reporte: Inteligencia artificial en medicina. Médicos argentinos, brasileños y mexicanos 2024” de Medscape, que encuestó a 1,056 profesionales de diversas especialidades sobre la influencia de esta tecnología en sus prácticas.

El reporte consultado por NotiPress destaca que la IA está comenzando a integrarse en modelos de atención, aunque este proceso sigue siendo un territorio en construcción. Los médicos encuestados subrayan que, aunque estas herramientas tienen el potencial de mejorar la eficiencia y la precisión diagnóstica, es fundamental garantizar su uso dentro de marcos profesionales y bajo supervisión médica.

Los especialistas enfatizan que la relación médico-paciente debe seguir siendo la piedra angular del cuidado de la salud. Según el informe, “la confianza entre médico y paciente no debe ser reemplazada por el uso de tecnología, y cualquier aplicación de IA debe estar sujeta a validación y monitoreo por estructuras de gobernanza claras“.

La encuesta, que incluyó a médicos de Argentina, Brasil y México, refleja una preocupación común: la falta de regulación específica sobre el uso de IA en medicina podría llevar a riesgos tanto éticos como legales. Estos incluyen la precisión en el diagnóstico, la protección de datos sensibles y la responsabilidad ante posibles errores en la aplicación de herramientas automatizadas.

El reporte subraya que, si bien la IA representa una oportunidad para transformar el sector salud, su implementación debe ir acompañada de normativas sólidas que respalden su uso seguro y ético.

]]>
248837
Facultad de Derecho inaugura su Semana Jurídica, Académica y Cultural https://www.chanboox.com/2024/10/28/facultad-de-derecho-inaugura-su-semana-juridica-academica-y-cultural/ Tue, 29 Oct 2024 00:20:13 +0000 https://www.chanboox.com/?p=245462
Abordan retos para el ejercicio y respeto de los derechos humanos con la Inteligencia Artificial
Mérida, Yucatán a 28 de octubre de 2024.- La opacidad en el desarrollo y aplicación de tecnología de inteligencia artificial es un gran reto para el ejercicio y respeto de los derechos humanos en el entorno digital, especialmente para actores involucrados en su protección como los estados, compañías y sociedad civil, expresó Pedro Salazar Ugarte, del Instituto de Investigaciones Jurídicas de la Universidad Nacional Autónoma de México (IIJ-UNAM).
Durante la conferencia “La Inteligencia Artificial, el más grande reto para el Derecho” al inaugurarse la Semana Jurídica, Académica y Cultural de la Facultad de Derecho de la Universidad Autónoma de Yucatán (UADY), el integrante de la Línea de Investigación en Derecho e Inteligencia Artificial (LIDIA) de la IIJ-UNAM analizó los retos y consecuencias del uso de IA y algoritmos en un complejo entorno de tecnologías, plataformas y actores privados y públicos como es Internet.
Explicó que debido a los peligros que conlleva el uso de tecnologías que tienen la capacidad de distorsionar el ambiente digital de formas no objetivas, no transparentes y que incluso pueden ser aprovechadas por actores privados y públicos, éstas deben ser diseñadas, desarrolladas e implementadas para ser consistentes con las obligaciones de estados y actores privados bajo el derecho internacional de los derechos humanos.
En tanto, otro integrante de la LIDIA, Pablo Pruneda Gross detalló que para que la inteligencia artificial sea desarrollada con una perspectiva de derechos humanos, debe cumplir dos importantes fundamentos: respetar la agencia y autonomía individual, y una significativa apertura de los actores públicos y sectoriales para que se esfuercen en explicar estas tecnologías a las personas, así como facilitar su escrutinio.
Previamente, al llevarse a cabo la ceremonia de inauguración de esta jornada en el marco del 197 aniversario de fundación de la Facultad de Derecho, su directora Minerva Zapata Denis dio la bienvenida a decenas de jóvenes universitarios e invitados especiales presentes y resaltó que en el plantel están conscientes del dinamismo y la disciplina jurídica para poder ajustarse a las necesidades fácticas de nuestra sociedad.
“Sobre todo por la importancia de que nuestra comunidad esté actualizada y poder enfrentar los retos jurídicos de un mundo tan cambiante, es por ello que en esta semana contaremos con actividades que abonarán la formación integral de nuestros estudiantes”, recalcó.
En representación del rector de la UADY, Carlos Alberto Estada Pinto, el director de Asuntos Jurídicos, Jorge Carlos Herrera Lizcano, reconoció al comité organizador de esta jornada y la labor que realiza la directora junto con su equipo de trabajo y colaboradores en la mencionada Facultad.
“En este sentido y siguiendo la petición expresa del rector, les hago la más respetuosa solicitud para que esta participación les permita crecer como personas y como profesionales y construir entre todos como comunidad jurídica, luz, ciencia y verdad”, destacó.
En esta edición de la Semana Jurídica, Académica y Cultural se abordarán temáticas actuales de relevancia como Tecnologías emergentes e Inteligencia Artificial en el Derecho; Digitalización del Derecho e IA: Oportunidades y Retos para la praxis jurídica; Ciberseguridad y Regulación de la Inteligencia Artificial; el Derecho Fundamental Informático de Alemania, entre otros.

Boletín de prensa

]]>
245462
OpenAI recluta a dos exfuncionarios de la Casa Blanca https://www.chanboox.com/2024/10/24/openai-recluta-a-dos-exfuncionarios-de-la-casa-blanca/ Thu, 24 Oct 2024 22:47:25 +0000 https://www.chanboox.com/?p=245092

OpenAI refuerza su equipo con Aaron Chatterji como economista jefe y Scott Schools como director de cumplimiento ético

Notipress.- El antiguo economista jefe del Departamento de Comercio de Estados Unidos, Aaron Chatterji, fue contratado por OpenAI para ser el primer economista en jefe de la empresa de inteligencia artificial. Además, la compañía dirigida de Sam Altman dio a conocer el nombramiento de Scott Schools, exfiscal general adjunto del Departamento de Justicia, como director de cumplimiento legal y ético.

Como la compañía considera que la IA puede transformar la economía de manera radical, la contratación de Chatterji permitiría “comprender mejor estos impactos, ayudar a las personas a aprovechar el potencial [de la IA] y crear un futuro más próspero”. El economista se encargará de investigar cómo la tecnología de nueva generación influye en el crecimiento económico y el mercado laboral.

Aaron Chatterji es profesor distinguido de negocios y políticas públicas en la Universidad de Duke. Su carrera se destaca por haber coordinado el programa “Ley CHIPS encomendado por el presidente Joe Biden. Además, fue subdirector interino del Consejo Económico Nacional de la Casa Blanca y economista en jefe del Departamento de Comercio de Estados Unidos.

Durante la gestión de Barack Obama, ocupó el cargo de economista senior en el Consejo Presidencial de Asesores Económicos. Por otro lado, también publicó dos libros y más de 30 artículos en las principales revistas de gestión estratégica, economía, finanzas y estudios organizacionales.

Según sus palabras, su carrera se centró en el estudio de “cómo la innovación y el espíritu emprendedor dan forma a nuestra economía y sociedad”. En esta nueva oportunidad aseguró sentirse entusiasmado por poder contribuir a la investigación en torno a la transición hacia una economía impulsada por la IA.

Por otra parte, OpenAI también anunció el reclutamiento del exfiscal general adjunto del Departamento de Justicia y antiguo líder de ética de Uber, Scott Schools, quien ejercerá el cargo de director de cumplimiento legal y ético. Su función será trabajar con la junta directiva para aplicar “los más altos estándares de conducta legal y ética” en todos los procesos operativos.

Estos nuevos reclutamientos tienen lugar en medio de las sospechas sobre la intención de Sam Altman de convertir OpenAI en una entidad con fines de lucro. Anteriormente, la compañía atrajo una ronda de financiamiento por 6,600 millones de dólares y su valoración privada se elevó a 157,000 millones.

Aun así, el capital está sujeto a la reestructuración del modelo empresarial de OpenAI lo cual hace que las subvenciones puedan ser retiradas si la firma no adopta un modelo totalmente comercial. Aunque, si bien la adopción de un perfil lucrativo generaría más ingresos, la adopción de este enfoque también aumentaría el escrutinio sobre su presunta posición dominante

Varios reguladores expresaron su preocupación sobre la posible formación de un monopolio de IA. Por tal motivo, autoridades de Estados Unidos, la Unión Europea y Reino Unido se anticiparon al hecho publicando una declaración conjunta en la cual se comprometían a “protegerse contra tácticas que socaven la competencia justa o conduzcan a prácticas engañosas en el ecosistema de inteligencia artificial”. Así como también el Departamento de Justicia y la Comisión Federal de Comercio de Estados Unidos iniciaron una indagatoria para determinar si las principales empresas desarrolladoras de IA ostentan un liderazgo anticompetitivo.

]]>
245092
La FTC prohíbe las reseñas creadas con IA https://www.chanboox.com/2024/10/22/la-ftc-prohibe-las-resenas-creadas-con-ia/ Wed, 23 Oct 2024 03:34:15 +0000 https://www.chanboox.com/?p=244890

La FTC comparte la normativa de la Operación AI Comply

Notipress.- La Comisión Federal de Comercio (FTC) apunta contra las empresas que, según la entidad gubernamental, utilizan inteligencia artificial para engañar a las personas. Los supuestos esquemas incluyen la promoción de una herramienta de IA que permite a los clientes crear reseñas falsas. Para regular este aspecto, la FTC implementó la operación policial: Operación AI Comply.

En un comunicado, la presidenta de la FTC, Lina M. Khan, sostuvo que “usar herramientas de inteligencia artificial para engañar, confundir o estafar a las personas es ilegal”. Además, agregó que “las medidas de cumplimiento de la FTC dejan claro que no existe ninguna exención para la inteligencia artificial en las leyes vigentes“.

Luego de ser implementada la ley, Khan publicó en su cuenta de X la normativa completa la cual abarca una serie de infracciones en relación a la utilización de IA. La Comisión prohíbe las reseñas y testimonios falsos para proteger la integridad del mercado y la confianza de los consumidores. La regla final se enfoca en reseñas generadas de manera fraudulenta, como aquellas producidas por inteligencia artificial o por personas sin experiencia real con el producto o servicio en cuestión. Además, las empresas ya no podrán crear, vender o difundir testimonios falsos, especialmente si sabían o deberían haber sabido que eran engañosos. También se prohíbe ofrecer compensaciones a cambio de reseñas que expresen un sentimiento específico, ya sea positivo o negativo.

Por otro lado, la normativa también pone restricciones en cuanto a los testimonios de empleados, gerentes o expertos afiliados a la empresa que no revelen claramente su conexión con la misma. Por ejemplo, no se permitirá que las reseñas provenientes de familiares inmediatos de empleados o agentes de la compañía sean difundidas sin transparencia. Asimismo, se prohibió a las empresas manipular sitios web de reseñas para que aparenten ser entidades independientes, cuando en realidad están controlados por las mismas empresas cuyas opiniones presentan.

Adicionalmente, la FTC busca eliminar la manipulación de las opiniones negativas mediante amenazas o intimidación. Las empresas ya no podrán suprimir reseñas desfavorables ni tergiversar la cantidad de reseñas negativas en sus plataformas para crear una imagen sesgada de su reputación. Por último, la regulación prohíbe la compra o venta de indicadores falsos en redes sociales, como seguidores o visualizaciones generadas por bots, en aquellos casos donde el objetivo sea crear una percepción engañosa de popularidad o influencia.

Una de las empresas que la FTC tiene en la mira es Rytr, una empresa en línea que ofrece herramientas de asistencia para la redacción con inteligencia artificial. De acuerdo con la dependencia estatal, la compañía violó la ley cuando proporcionó a los suscriptores los medios para generar contenido escrito engañoso y falso para las reseñas de los consumidores.

Khan señaló que, al perseguir a las empresas que utilizan herramientas de inteligencia artificial injustas o engañosas, la FTC puede garantizar que las empresas que sigan la innovación y la honestidad puedan tener una oportunidad justa y los consumidores, mantenerse seguros y bien informados.

]]>
244890