OpenAI desmantela operación Iraní usando ChatGPT para manipular las elecciones en EEUU
Notipress.- En un contexto de preocupación por la integridad de los procesos electorales, OpenAI se dio a la tarea de identificar y desmantelar una operación encubierta de influencia iraní. Este grupo, conocido como Storm-2035, empleó cuentas de ChatGPT para generar y distribuir contenido manipulador sobre las elecciones presidenciales de Estados Unidos.
Para evitar el abuso de su tecnología de inteligencia artificial (IA) en el contexto de las elecciones presidenciales, la empresa detectó recientemente una operación de influencia encubierta, atribuida a un grupo iraní quienes generaban y difundían contenido manipulador en redes sociales y sitios web. Este contenido incluía artículos y comentarios sobre temas políticamente sensibles, como el conflicto en Gaza, las elecciones en Estados Unidos y la política en Venezuela.
Sin embargo, el compromiso de OpenAI con la transparencia y la prevención del abuso es clave para identificar y desmantelar este tipo de operaciones. En un informe publicado por la compañía, se detalló sobre la operación iraní intentó influir en la opinión pública estadounidense al crear perfiles falsos en redes sociales y hacerse pasar por progresistas o conservadores.
Dichos perfiles, publicaban contenido generado por ChatGPT, incluyendo comentarios reescritos a partir de publicaciones existentes en las plataformas. Si bien la operación tuvo poco impacto, la intervención de OpenAI no se limitó a la eliminación de las cuentas involucradas. La empresa también compartió la información obtenida con actores clave del gobierno, campañas políticas y la industria para evitar futuros intentos de manipulación electoral mediante el uso de IA.
El informe de Microsoft Threat Intelligence, contribuyó a la investigación de OpenAI e, identificó a Storm-2035 como una red iraní activa desde 2020, cuya estrategia es sembrar disenso y polarización entre la población estadounidense. Los operadores de Storm-2035 utilizaron ChatGPT para crear artículos falsos afirmando erróneamente que figuras políticas como Kamala Harris hacían declaraciones controvertidas sobre temas de inmigración y el cambio climático.
A pesar de la baja eficacia de estas campañas en términos de alcance y participación, OpenAI mantiene una postura firme contra cualquier intento de manipulación con IA. La empresa reafirmó su compromiso en seguir monitoreando y actuando contra el uso malicioso de sus servicios, especialmente en un año electoral tan importante como el 2024.
No obstante, el caso de Storm-2035 no es el primero en el que OpenAI interviene para detener operaciones encubiertas. En mayo, la empresa desbarató cinco campañas similares que utilizaban ChatGPT para fines maliciosos. A medida se aproximan las elecciones en Estados Unidos, es probable se intensifiquen los trabajos de actores malintencionados y utilicen la IA para difundir desinformación.
]]>
Notipress.- Cinco docentes, galardonados con el estímulo “Laura Méndez de Cuenca” por el Gobierno del Estado de México, viajaron hacia España para participar en un curso especializado en la Universidad Complutense de Madrid. Este curso, titulado “ChatGPT en el aula: desarrollando la inteligencia artificial para una educación innovadora“, se llevará a cabo en la Facultad de Educación y culminará el próximo 20 de julio.
La iniciativa refuerza el compromiso del gobierno estatal, liderado por Delfina Gómez Álvarez y la Secretaría de Educación, Ciencia, Tecnología e Innovación (SECTI), bajo la dirección de Miguel Ángel Hernández Espejel, con la formación continua del personal docente y la integración de tecnologías avanzadas en el proceso educativo.
Este reconocimiento destaca el mérito profesional y la dedicación de los docentes en sus respectivos campos educativos, reflejado en evaluaciones de desempeño como la Promoción Horizontal y Vertical en diversos niveles educativos.
Durante su estancia en Madrid, los docentes participarán activamente en el curso, explorando el potencial pedagógico del ChatGPT, diseñado para promover el pensamiento crítico y la creatividad entre los estudiantes. Además, compartirán experiencias con colegas internacionales y adquirirán nuevas estrategias para enriquecer su práctica docente.
Se anticipa que esta experiencia fortalecerá significativamente las competencias de los participantes, beneficiando directamente la calidad educativa en el Estado de México y promoviendo un enfoque innovador en el uso de la inteligencia artificial en el aula.
]]>
Colaboraciones estratégicas de Apple fortalecen su posición en la inteligencia artificial
Notipress.- Apple anunció su incursión en la inteligencia artificial (IA) con el lanzamiento de Apple Intelligence y su asociación con OpenAI para integrar ChatGPT en una versión renovada de Siri. Esta movida estratégica, revelada a principios de junio de 2024, marca un paso significativo para la empresa tecnológica en el ámbito de la IA.
Según el Wall Street Journal, Apple también está en conversaciones con Meta, la empresa matriz de Facebook, para establecer un acuerdo similar. Aunque las discusiones no han concluido y podrían fracasar, la colaboración con Meta permitiría a Apple diversificar sus socios en el campo de la IA generativa.
La incorporación de ChatGPT a Siri es solo el comienzo de una serie de mejoras impulsadas por IA en los productos de Apple. Estas mejoras incluyen sugerencias de escritura y emojis personalizados, que, aunque prácticas, no representan una disrupción total del mercado. Esta estrategia pragmática podría ser clave para la adopción masiva de la IA, permitiendo a Apple mejorar gradualmente sus productos existentes.
Un acuerdo con Meta reduciría la dependencia de Apple en un solo socio, además, validaría la tecnología de IA generativa de Meta. Según el WSJ, Apple no planea pagar por estas asociaciones; en su lugar, ofrecerá distribución a sus socios de IA, quienes podrán vender suscripciones premium a través de los productos de Apple.
Elon Musk, cofundador de OpenAI y ahora competidor con su nueva startup xAI, expresó su preocupación sobre la integración profunda de ChatGPT con los sistemas operativos de Apple. A pesar de esto, Apple ha asegurado que pedirá permiso a los usuarios antes de compartir cualquier información con ChatGPT, y se espera que cualquier integración con Meta siga un protocolo similar.
En otro desarrollo reciente, Apple ha anunciado que retrasará la implementación de algunas funciones de Apple Intelligence en la Unión Europea debido a la Ley de Mercados Digitales de la UE. Esta legislación busca fomentar la competencia en los mercados digitales, pero Apple expresó preocupaciones sobre la posible necesidad de comprometer la privacidad del usuario y la seguridad de los datos para cumplir con los requisitos de interoperabilidad.
]]>
Aunque ChatGPT puede ser un complemento de la atención médica, esta herramienta carece de especificidad en ciertos aspectos
Notipress.- Una investigación señaló que ChatGPT, chatbot de OpenAI, podría ayudar a resolver las dudas en torno a las vacunas y la información sobre infecciones de transmisión sexual (ITS). Cabe destacar, desde su debut en 2022, ChatGPT ha sido utilizado en diversas áreas, sin embargo, su precisión es objeto de debate, señaló la Sociedad Europea de Microbiología Clínica y Enfermedades Infecciosas (ESCMID).
Dicho estudio, cuya presentación se realizará en el Congreso Global ESCMID 2024, demuestra que ChatGPT puede brindar respuestas precisas y útiles sobre temas relacionados con la salud, particularmente en vacunación e ITS. Lo anterior ofrece una opción confiable para aquellos que buscan información precisa y accesible, destacó ESCMID.
Las dudas en torno a las vacunas están en aumento, impulsadas en gran parte por la proliferación de desinformación en línea. En este contexto, ChatGPT emerge como una opción para quienes desconfían de los profesionales de la salud o desean obtener respuestas rápidas y precisas en trono a la vacunación.
En general, las respuestas de ChatGPT a la vacilación de la vacuna fueron precisas y pueden ayudar a las personas que tienen conceptos erróneos relacionados con la vacuna”, destacó el autor principal del estudio, el Dr. Matthew Koh. “Nuestros resultados demuestran el poder potencial de los modelos de IA para ayudar en las campañas de salud pública y ayudar a los profesionales de la salud a reducir la vacilación de la vacunación”, agregó.
Por otro lado, la salud sexual es otro ámbito en el que ChatGPT puede desempeñar un papel importante. Pues para aquellos que buscan información respecto a las ITS, el chatbot puede ofrecer respuestas concisas de prevención, síntomas y pruebas. De acuerdo con los investigadores, cuando se consultó sobre medidas preventivas para las ITS, ChatGPT sugirió la práctica de sexo seguro, la vacunación contra el VPH y la abstinencia. No obstante, el chatbot no ofreció asesoramiento sobre otros aspectos importantes, como la profilaxis ocasionada por la preexposición al VIH.
Ante esto, el estudio señala que ChatGPT carece de especificidad en ciertos aspectos, como la recomendación de tratamientos específicos o la evaluación del riesgo individual. “La esperanza es que las personas puedan educarse haciendo que los consejos precisos sean más accesibles y aumenten la absorción de vacunas y la protección contra las ITS”, subrayó el Dr. Koh.
Los resultados de esta investigación subrayan el potencial de ChatGPT como una herramienta valiosa en el ámbito de la salud pública, especialmente en la educación y el asesoramiento sobre vacunación e ITS. Sin embargo, ESCMID destacó la necesidad de utilizar esta herramienta como un complemento a la atención médica, ya que la orientación humana sigue siendo fundamental para proporcionar un asesoramiento completo y personalizado.
]]>Algunas de las sugerencias incluyen respuestas a críticas en redes sociales
Notipress.- La empresa registradora de dominios de Internet y de alojamiento web, GoDaddy, lanzó una nueva biblioteca de prompts de Inteligencia Artificial. La biblioteca de prompts, compuesta por un catálogo con más 35 opciones, se encuentra en constante actualización, aseveró GoDaddy. Además, proporciona prompts predefinidos para herramientas como ChatGPT de OpenAI y Gemini de Google.
“Con la nueva Biblioteca de Prompts de IA Generativa de GoDaddy para Pequeñas Empresas, los emprendedores tendrán a la mano un aliado que les permitirá ahorrar mucho tiempo en el día a día de su negocio en términos de marketing, redes sociales y diseño”, destacó Gianluca Stamerra, director Senior de GoDaddy.
Estos prompts abordan las problemáticas comunes que enfrentan los negocios en línea, desde la generación de ideas de marketing hasta sugerencias para manejar las opiniones de los clientes, destacó GoDaddy a NotiPress. La IA generativa permite a los emprendedores realizar en minutos lo que antes les llevaría horas o días. Algunas sugerencias incluyen estrategias de crecimiento, redacción de marketing y respuestas a críticas en redes sociales, agregó la compañía.
De acuerdo con GoDaddy, algunas de las sugerencias incluidas en la biblioteca de prompts de incluyen:
Por el mismo lado, la biblioteca también brinda la oportunidad de consultar a ChatGPT sobre la eficacia de esta herramienta. ChatGPT resalta que esta biblioteca facilita la creación de contenidos de alta calidad de manera rápida y sencilla para las pequeñas empresas, permitiéndoles enfocarse en ofrecer productos y servicios excepcionales a sus clientes, concluyó GoDaddy.
]]>Washington, 8 mar (EFE).- OpenAI, creadora de ChatGPT, anunció este viernes la reincorporación de su consejero delegado, Sam Altman, a la junta directiva de la que fue expulsado en noviembre del año pasado.
En un comunicado, OpenAI también anunció la incorporación a la junta de Sue Desmond-Hellmann, ex consejera delegada de la Fundación Bill y Melinda Gates; de Nicole Seligman, exdirectiva de Sony Entertainment; y de Fidji Simo, consejero delegado de Instacart.
Altman fue despedido en noviembre de OpenAI al haber perdido la “confianza” de la junta directiva, un hecho que abrió un proceso turbulento en la empresa en la que la mayoría de trabajadores amenazó con dimitir y en el que un bloque de accionistas -entre ellos Microsoft- presionó para su retorno.
Días después de su despido, Altman volvió a ser nombrado consejero delegado de OpenAI pero no se le restituyó su puesto en la junta directiva.
Con su vuelta este viernes a la junta directiva OpenAI da carpetazo a este extraño capítulo.
]]>
MILÁN, 29 ene (Reuters) – La autoridad italiana de protección de datos comunicó a OpenAI que su aplicación de inteligencia artificial ChatGPT incumple las normas de protección de datos, informó el lunes el regulador, que sigue adelante con una investigación iniciada el año pasado.
La autoridad, conocida como Garante, es una de las más proactivas de la Unión Europea a la hora de evaluar el cumplimiento del régimen de privacidad de datos por parte de las plataformas de IA. El año pasado prohibió ChatGPT por supuestas infracciones de las normas de privacidad de la UE.
El servicio se reactivó después de que OpenAI abordó cuestiones relacionadas, entre otras cosas, con el derecho de los usuarios a negarse a consentir el uso de datos personales para entrenar sus algoritmos.
En aquel momento, el regulador dijo que seguiría investigando. Desde entonces ha llegado a la conclusión de que hay elementos que indican una o más posibles violaciones de la privacidad de los datos, dijo en un comunicado sin dar más detalles.
OpenAI no respondió inmediatamente a una solicitud de comentarios.
El Garante indicó el lunes que OpenAI, respaldada por Microsoft, dispone de 30 días para presentar argumentos de defensa, y añadió que su investigación tendría en cuenta el trabajo realizado por un grupo de trabajo europeo integrado por organismos nacionales de vigilancia de la privacidad.
Italia fue el primer país de Europa Occidental en poner freno al ChatGPT, cuyo rápido desarrollo ha atraído la atención de legisladores y reguladores.
En virtud del Reglamento General de Protección de Datos (RGPD) de la UE introducido en 2018, cualquier empresa que incumpla las normas se enfrenta a multas de hasta el 4% de su facturación global.
En diciembre, los legisladores y los gobiernos de la UE acordaron condiciones provisionales para regular los sistemas de IA como ChatGPT, dando un paso más hacia el establecimiento de normas que regulen la tecnología.
]]>
Artículos sobre ChatGTP y Oppenheimer fueron los más leídos en Wikipedia durante 2023
NOTIPRESS.- El 15 de enero de 2001, Wikipedia fue puesta en línea y editada por primera vez y Creative Commons registró su sitio web, cuyo sistema de derechos de autor libre utiliza la enciclopedia digital desde entonces. Por ello, la comunidad en línea considera este día como el cumpleaños de Wikipedia y para celebrarlo se organizan diversas actividades. Una de las más populares es la organización de foros donde los editores comparte su actividad durante 2023 y capacitan a los nuevos colaboradores.
Aunado a ello, como parte de la celebración, Wikipedia comparte un resumen de la actividad de la plataforma durante el año. De acuerdo con datos de la Fundación Wikimedia, la plataforma recibió 92 mil millones de visitas durante 2023. En donde, la mayor parte de estas visualizaciones las concentraron 25 artículos que a su vez fueron los más leídos en el año.
De esta forma, la entrada ChatGPT obtuvo 52 millones de visitas en 2023 y durante la primera mitad del año registró entre 100 y 400 mil visitas al día. Tomando en cuanta todos los idiomas que admite Wikipedia, la plataforma contabilizó más de 78 millones de páginas vistas ligadas a artículos sobre la aplicación de Inteligencia Artificial.
El segundo artículo más visto en Wikipedia durante el año fue la lista anual de muertes, la cual dada su extensión suele ser dividida de manera mensual. Dentro del top 5 de artículos con más visualizaciones, también se encuentran los referidos a la Copa Mundial de Cricket 2023 con 38 millones de vistas, Liga Premier de India con 32 millones y Oppenheimer (película) con 31 millones.
Por otra parte, los temas más populares en la plataforma fueron deportes, cine y televisión y celebridades. A su vez, en relación con el deporte, el cricket represento un 16% de los 25 artículos más visitados en 2023. Incluso, Wikimedia considera que la mayor parte de las visitas realizadas a la entrada Premier League de fútbol soccer se hicieron por error cuando se buscaba la liga para acceder a información de la Liga Premier de India de crikcket. , Cabe destacar, las personalidades más buscadas en este rubro fueron Cristiano Ronaldo con 19 millones de clics y Messi con 17 millones.
En los artículos de cine y televisión, Opennhimer fue el más popular, captó más de 31 millones de visitas de usuarios de habla inglesa y 47 millones en otras lenguas. Algunos otros filmes que captaron gran atención en la plataforma fueron Jawan, con 23 millones de visualizaciones; Pathaan, con 20 millones; Barbie, con 19 millones; y Animal, con 16 millones.
Respecto a las celebridades más buscadas, Wikipedia identificó que el alcance de Eras Tour tuvo tal impacto a nivel mundial que Taylor Swift fue la celebridad más buscada en la plataforma durante 2023, con 22 millones de visitas. Otros artículos más leídos sobre personalidades famosas estuvieron asociados con muertes prematuras. Como en el caso de Matthew Perry, conocido por su papel en Friends, y Lisa Marie Presley, cantante e hija de Elvis Presley.
]]>
Pekín, 29 dic (EFE).- La policía de la ciudad china de Hangzhou (este) desarticuló una banda criminal que utilizaba el servicio de inteligencia artificial ChatGPT para supuestamente optimizar sus programas y realizar ataques de ‘ransomware’ para extorsionar a empresas.
Las autoridades de dicha ciudad recibieron el pasado 20 de noviembre una denuncia de una empresa que afirmaba que sus servidores habían sido víctimas de ataques ‘ransomware’, que impiden a los usuarios acceder a sus sistemas o archivos y exigen el pago de un rescate para recuperarlos, recogió hoy el diario local Global Times.
Según los medios, los autores del ataque exigían 20.000 dólares estadounidenses en la criptomoneda Tether.
La policía local inspeccionó los servidores afectados, extrajo el programa troyano para su análisis y realizó evaluaciones de las direcciones de monedero de criptomonedas utilizadas para la extorsión, logrando identificar a dos sospechosos.
El 30 de noviembre, las autoridades detuvieron a dos sospechosos en Hohhot, en la provincia de Mongolia Interior (norte).
Al día siguiente, arrestaron a otros dos cómplices en Pekín, con lo que quedaron detenidos los cuatro integrantes de la banda.
Los sospechosos reconocieron su participación en el diseño del ‘ransomware’, la “optimización de los programas usando ChatGPT”, el “escaneo de vulnerabilidades”, la “infiltración para obtener permisos” y la extorsión, según las autoridades.
El gigante asiático aprobó en julio pasado una normativa provisional para regular los servicios de inteligencia artificial generativa similares a ChatGPT, que estarán sujetos a “los reglamentos vigentes en materia de seguridad de la información, protección de datos personales, propiedad intelectual y progreso científico y tecnológico”.
Varios gigantes tecnológicos chinos como Baidu, Tencent o Alibaba han presentado en los últimos meses servicios basados en inteligencia artificial, aunque han surgido preguntas acerca de la aplicación de este tipo de tecnología en el país asiático debido a la fuerte censura que imponen las autoridades.
]]>
PEKÍN, 28 dic (Reuters) – Ernie Bot, la herramienta de Baidu similar a chatGPT, superó los 100 millones de usuarios, anunció el jueves el director de tecnología de la empresa china de Internet, Wang Haifeng.
El hito del número de usuarios, anunciado en una cumbre sobre aprendizaje profundo celebrada en Pekín, se produce después de que el gigante de los motores de búsqueda abrió Ernie Bot al público en agosto. Antes hubo una presentación parcial y un periodo de prueba de más de cinco meses en el que usuarios seleccionados pudieron probar las capacidades del chatbot.
Los analistas afirman que, aunque la presentación parcial de marzo fue decepcionante, proporcionó a la empresa una valiosa ventaja como pionera en un mercado que, desde entonces, se ha llenado de decenas de actores, a medida que las empresas tecnológicas chinas, grandes y pequeñas, tratan de desarrollar sus propios chatbots basados en inteligencia artificial (IA) generativa.
Esto se produjo tras el lanzamiento a finales de 2022 de ChatGPT, de la estadounidense Open AI, apoyada por Microsoft, que se convirtió en la aplicación de software de mayor crecimiento del mundo en seis meses.
Desde entonces, los inversores han valorado OpenAI en más de 80.000 millones de dólares. Si bien la matriz de OpenAI es una organización sin ánimo de lucro, Microsoft ha invertido 13.000 millones de dólares en una filial con ánimo de lucro, por lo que tendría una participación del 49%.
Este año, Robin Li, presidente ejecutivo de Baidu, ha pregonado repetidamente el potencial de Ernie Bot y otros productos relacionados para ayudar a la empresa a ganar cuota de mercado en sus principales negocios, como el motor de búsqueda, la nube y los coches inteligentes.
Según una clasificación publicada el jueves por SuperCLUE, que clasifica los chatbots generativos impulsados por IA, Ernie Bot lidera todos los chatbots chinos, pero su puntuación de 79,02 es más de 10 puntos inferior a la de la última versión de ChatGPT.
]]>
Científicos de Purdue informaron que la mitad de los resultados de programación de ChatGPT contienen faltas de precisión
NOTIPRESS.- De acuerdo con ingenieros y científicos de la Universidad de Purdue, Estados Unidos, al menos la mitad de los resultados de ChatGPT relacionados con programación contienen errores. La investigación del centro académico, ubicado en Indiana, señaló que la tecnología de conversación basada en inteligencia artificial (IA) tiene dificultades para dar resultados eficientes en el campo de preguntas y respuestas para abordar problemas a futuro (Q&A, en inglés).
El bot conversacional (chatbot) desarrollado por OpenAI, ChatGPT, ha cobrado popularidad e importancia en ámbitos de estudio y trabajo en todo el mundo, principalmente por incrementar la productividad. En el caso de México, la herramienta recibió 60 millones de visitas entre enero y marzo de 2023, señalaron cifras de Statista.
Gracias a la evolución de la inteligencia artificial, el modelo GPT-4 puede responder preguntas y comunicar información con un grado de creatividad igualada a los mejores pensadores humanos. Ello indicó un estudio de la Universidad de Montana, para el cual la herramienta se comparó con las respuestas de más de dos mil estudiantes universitarios.
Bajo esta línea, el crecimiento de ChatGPT ha generado preocupaciones por la posibilidad de reemplazar el trabajo humano en las empresas y organizaciones. Al respecto, investigadores de la Universidad de Cornell informaron el 17 de marzo de 2023: los chatbots sofisticados pueden afectar al 19% de la fuerza laboral solo en Estados Unidos.
Según el estudio de los científicos de Purdue, al preguntar a ChatGPT sobre problemas de programación en la plataforma Stack Overflow (SO), 77% de los resultados incluyen palabras de sobra que entorpecen aplicar el código. Asimismo, 52% de las respuestas contienen información con falta de precisión y errores para trabajar con problemas informáticos.
No obstante, la investigación publicada en aiXiv, que se encuentra pendiente de revisión por la comunidad científica, señaló un panorama positivo para el uso de ChatGPT. Si bien la mitad de sus respuestas tiene elementos erróneos, 54% de sus resultados provienen de dificultades para entender los conceptos que buscan los usuarios de la plataforma.
Frente a la falta de precisión en los resultados de ChatGPT, el estudio de Indiana informó que la inteligencia artificial es más efectiva cuando se encuentra supervisada por humanos. Comparado con la idea de dichas herramientas como reemplazo de la mano de obra humana, los modelos de lenguaje de ChatGPT tienen la capacidad de incrementar la productividad en conjunto.
]]>
IA en el sector financiero puede ser muy ventajosa para las instituciones, pero los usuarios pueden pagar las consecuencias
NOTIPRESS.- La inteligencia artificial (IA) tomó por sorpresa a todos los sectores al permitir automatizar y mejorar sus procesos. El mundo financiero no fue la excepción y la IA ha transformado y revolucionado la manera en que se hace operaciones y se toman decisiones.
Gerardo Obregón, fundador y director general de Prestadero, explicó a NotiPress que mucha gente relaciona la IA con un chat, pero esto no es así. Si bien, existe ChatGTP, la IA se puede presentar como un modelo entrenamiento para detectar ciertos patrones de forma precisa.
En las finanzas, la aplicación puede darse desde la organización de los gastos para ponerlos en cubetas para ir dividiéndolos. Por ejemplo, si se compra en diferentes cafeterías, el cargo aparece de forma diferente, pero si se quiere englobar todo como un solo gasto se puede hacer con la IA, logrando armar un mejor presupuesto.
Además, la IA puede ser utilizada para la autorización de créditos; sin embargo, en el 99 por ciento de las veces dará la misma respuesta: no se dará el crédito. Donde se podría utilizar, señala el experto, es cuando los datos no son necesariamente negativos o positivos; por ejemplo, personas que han tenido experiencia con créditos o comprobantes de ingresos.
De acuerdo con Obregón, en su experiencia no existe la predicción mediante datos completamente irrelevantes. Se han probado modelos que analizan datos como el tipo de celular o cuanto tiempo se tardan en llenar la solicitud, pero los mejores datos para saber si alguien va a pagar es su nivel de ingresos. Existen dos temas en créditos en Fintech, uno es el repago y el segundo el riesgo de fraude, con la IA el proceso se hace más rápido y preciso.
Si bien, la IA tiene muchos beneficios, hay ciertos riesgos, por lo cual Obregón señaló que se debe de utilizar la herramienta en el mundo financiera para los siguientes supuestos:
Adicionalmente, el experto señaló que el modelo de entrenamiento suele castigar a las mujeres porque en las solicitudes anteriores algunas mujeres no pagaron. En ese sentido, si el modelo identifica que algún dato coincide con quienes no suelen pagar, se debe de tener cuidado para evitar la declinación por parte del IA.
]]>
Estudio de Noy y Zhang comprueba que el uso de ChatGPT mejora la productividad en los trabajadores
NOTIPRESS.- Con el paso de los años, las máquinas han desplazado a los trabajadores humanos de diferentes tipos de tareas cotidianas. Sin embargo, la utilización de ChatGPT en la actualidad podría traer beneficios en cuestiones de productividad y nivelación de capacidades en los trabajadores, menciona un estudio de en la revista Science. Según Statista, Brasil es el país de América Latina y el Caribe con mayor uso de ChatGPT, pues registra 70 millones de visitas tan sólo de enero a marzo del 2023. Los países que siguen en la estadística son Colombia y México, con visitas que se acercan a 60 millones.
El ChatGPT es un chatbot que utiliza el modelo de lenguaje de GPT-3, con el cual puede mejorar la productividad en la realización de tareas como atención al cliente, marketing o generación de textos. El lanzamiento de este chatbot se dio en noviembre de 2022 por OpenAPI. Cuando la primera forma de autogeneracion de contenidos surgió, los resultados no eran de gran calidad, no obstante, en la actualidad estos contenidos han mejorado, menciona Universo Abierto.
Respecto a este escenario, los principales autores del estudio, Shakked Noy y Whitney Zhang reclutaron un grupo de 453 profesionales con educación universitaria para realizar diferentes escritos, de los cuales a la mitad se les pidió utilizar ChatGPT. Como resultado, los usuarios que se apoyaron en ChatGPT para completar sus tareas tuvieron mayor productividad, tardando solo 11 minutos en la realización de su tarea; mientras el grupo que no utilizó la inteligencia artificial tardó 27 minutos.
La conclusión del estudio de Noy y Zhang fue que sí hay una mayor productividad en las actividades en donde se utiliza ChatGPT. También mejora las debilidades de algunos trabajadores y fortalece las habilidades de otros, con lo cual posiciona a los trabajadores en una igualdad de condiciones. A pesar de los beneficios de ChatGPT respecto a la productividad, uno de sus inconvenientes es que este chatbot no puede acceder a un conocimiento específico sobre algún contexto y no es una fuente confiable de información fáctica precisa, menciona el estudio de Noy y Zhang.
Menciona Universo Abierto, la inteligencia artificial ha avanzado mucho en las cuestiones de aprendizaje automático, lenguaje natural y creación de textos. Lo que antes representaba creaciones sin sentido y poco estructuradas, hoy son escritos de buena calidad. Más que rechazar la implementación de ChatGPT para el desarrollo de nuestras tareas diarias, se debe concientizar sobre su funcionalidad como herramienta de trabajo, según Universo Abierto.
]]>
Una conversación en la plataforma ChatGTP de entre 30 y 50 palabras consume cerca de 500 ml de agua
NOTIPRESS.- El programa de las Naciones Unidas para el Medio Ambiente advierte que de no desvincular el crecimiento económico al uso de agua, más de la mitad de la población mundial no tendrá acceso a dicho recurso. Además, estima que la demanda de agua superará la oferta en un 40 por ciento para 2023. Esto implicará inversiones gubernamentales a nivel global, superiores a 2 mil millones de dólares al año.
Una de las acciones señaladas por este programa es evaluar la huella hídrica y el impacto de los modelos de desarrollo de tecnología. Una investigación realizada por la Universidad de Colorado y Riverside y la Universidad de Texas Arlington analiza el consumo de energía y la huella hídrica utilizada en inteligencia artificial como ChatGTP.
Mediante el uso de fuentes públicas, los investigadores determinaron que los centros de datos de Microsoft en Estados Unidos pueden consumir de manera directa cerca de 700 mil litros de agua potable. La cual equivale a la producción de 370 unidades vehiculares de gasolina o 320 de energía eléctrica. Otra de las compañías abordadas es Google, durante 2021 sus centros de datos en Estados Unidos gastaron 12,700 millones de litros de agua en refrigeración de servidores.
Si bien la actividad de los modelos de inteligencia artificial ocurre de manera digital, el almacenamiento físico y el procesamiento de datos genera calor en los servidores. Ante ello, se utilizan sistemas de enfriamiento que consumen una gran cantidad de agua. Además, los sistemas para generar energía eléctrica también hacen uso de este recurso.
Dicho estudio señala que una conversación con la plataforma ChatGTP de entre 20 y 50 palabras equivale a consumir 500 ml de agua. Cabe mencionar que este chatbot cuenta con más de 100 millones de usuarios activos, cada uno de los cuales genera múltiples conversaciones al día.
Aunado al consumo de recursos, las operaciones relacionadas con IA, afectan la biodiversidad acuática y generan grandes emisiones de CO2. La sostenibilidad de esta industria a largo plazo podría generar presión adicional a la crisis hídrica mundial, señala Pengfei Li, autor de “Making AI Less “Thirsty”: Uncovering and Addressing the Secret Water Footprint of AI Models”.
Frente este problema, los investigadores de la Universidad de Colorado han sugerido un esquema llamado “diversidad espacio temporal de la eficiencia de uso de agua”. En resumen, al programar el entrenamiento y la inferencia del modelo de IA en diferentes lugares y en diferentes momentos, los desarrolladores pueden reducir la huella hídrica de sus modelos de IA para equilibrar la eficiencia de consumo de agua y reducir la emisión de CO2.
]]>
Usuarios podrán utilizar las amenidades de ChatGPT desde la comodidad de su iPhone
NOTIPRESS.- OpenAI lanzó el 18 de mayo de 2023 una aplicación gratuita de ChatGPT para los usuarios con operador iOS. Esta es la primera app para smartphones del modelo de lenguaje, uniéndose al campo de software de inteligencia artificial móvil de terceros que componen por la atención de los usuarios.
Actualmente, los usuarios aprovechan las API GPT-3.5 y GPT-4 que impulsan ChatGPT. La app únicamente estará disponible para Estados Unidos por el momento, pero la empresa comentó que se expandirá a más países en “las próximas semanas“.
Entre las funciones que podrán aprovechar los estadounidenses con iOS en esta app son:
Respecto a las características de la aplicación, esta se ve y se comporta de forma similar a la del sitio web de ChatGPT. Sin embargo, cuenta con una entrada de voz mediante el reconocimiento de voz Whisper de OpenAI. Además, se puede cambiar entre modelos de idioma estándar y GPT-4 para suscriptores de ChatGPT Plus.
Igualmente, podrán tener todo el historial de conversación en su iPhone. Se podrán exportar los datos y eliminar o renombrar conversaciones. La compañía recientemente lanzó complementos, incluyendo acceso a una web en vivo, las cuales no estarán en la app.
Aunque el lanzamiento solamente está dirigido a usuarios de iPhone, OpenAi aseguró a quienes tienen Android que serán los próximos en obtener la app. Es importante puntualizar que los usuarios de iPad deberán de seguir usando el sitio web de ChatGPT. Aunque, puede utilizar la aplicación de iOS mejorada al tamaño de una tableta, la cual fue diseñada exclusivamente smartphones.
]]>
Gobierno chino dice no tolerar la creación de fake news por medio de IA
NOTIPRESS.- Autoridades chinas arrestaron a un hombre por crear y difundir un artículo falso sobre un accidente de tren por medio de ChatGPT. De esa manera, se convierte en el primer crimen relacionado con el chatbot de inteligencia artificial de OpenAI en China y alrededor del mundo.
El sospechoso, identificado como Hong, usó ChatGPT para generar una fake news sobre el choque de un tren, que supuestamente había dejado un saldo de nueve muertos. La historia fue publicada en 25 cuentas de Baijiahao, una plataforma de creación de contenidos, con direcciones IP de diferentes locaciones.
La noticia rápidamente se hizo viral en redes sociales, registrando más de 15 mil visitas, por lo cual, las autoridades iniciaron una investigación. Actualmente, Hong se encuentra detenido y enfrentará cargos por esparcir información falsa online.
De acuerdo con la policía de Gansu, el sospechoso fue el primer aprehendido tras la publicación de la ley que rige las tecnologías de síntesis profunda. De acuerdo con la ley introducida en 2023, no se puede hacer uso de tecnologías de síntesis profunda para difundir noticias falsas.
Ante el crecimiento acelerado de las herramientas de IA y su uso para la creación de fake news, el gobierno chino decidió tomar medidas en su contra. Lo anterior, va de la mano con su política para evitar las noticias falsas e información errónea, que comenzó desde hace varios años.
Con el arresto, se busca dar un mensaje por parte de las autoridades de que no tolerarán la difusión de fake news. Asimismo, el caso de Hong busca alertar a quienes utilicen ChatGPT u otras tecnologías para crear y esparcir información falsa para que dejen de hacerlo.
OpenAI lanzó el programa de inteligencia artificial, ChatGPT, a finales de 2022. Esta herramienta puede generar texto similar al humano, lo cual dificulta a los lectores distinguir entre noticias reales y falsas.
Solamente se puede acceder a ChatGPT en China por medio de una red privada virtual, pues fue bloqueada por las restricciones de Internet en el país. Sin embargo, los gigantes tecnológicos chinos se encuentran desarrollando sus propios chatbots.
]]>
Por Martin Coulter y Supantha Mukherjee
LONDRES/ESTOCOLMO, 1 may (Reuters) – Hasta el mes de febrero, la IA generativa no ocupaba un lugar destacado en los planes de los parlamentarios de la UE para regular tecnologías de inteligencia artificial como ChatGPT.
La propuesta de 108 páginas del bloque para la Ley de IA, publicada dos años antes, solo incluía una mención a la palabra “chatbot” Las referencias a contenidos generados por IA se referían en gran medida a deepfakes: imágenes o audio diseñados para hacerse pasar por seres humanos.
A mediados de abril, sin embargo, los miembros del Parlamento Europeo se apresuraron a actualizar esas normas para ponerse al día con una explosión de interés en la IA generativa, que ha provocado asombro y ansiedad desde que OpenAI dio a conocer ChatGPT hace seis meses.
Esa carrera culminó el jueves con un nuevo borrador de la legislación que identificaba la protección de los derechos de autor como una pieza central del esfuerzo por mantener a raya a la IA.
Entrevistas con cuatro parlamentarios y otras dos fuentes cercanas a las discusiones revelan por primera vez cómo, en solo 11 días, este pequeño grupo de políticos elaboró lo que podría convertirse en una legislación histórica, remodelando el panorama normativo para OpenAI y sus competidores.
El proyecto de ley no es definitivo y, según los juristas, tardará años en entrar en vigor.
La rapidez de su trabajo, sin embargo, es también un ejemplo excepcional de consenso en Bruselas, a menudo criticada por la lentitud en la toma de decisiones.
CAMBIOS DE ÚLTIMA HORA
Desde su lanzamiento en noviembre, ChatGPT se ha convertido en la aplicación de más rápido crecimiento de la historia, y ha provocado una oleada de actividad por parte de competidores de las grandes tecnológicas e inversiones en startups de IA generativa como Anthropic y Midjourney.
La enorme popularidad de este tipo de aplicaciones ha llevado a Thierry Breton, Director General de Industria de la UE, y a otros a pedir que se regulen los servicios similares a ChatGPT.
Una organización respaldada por Elon Musk, el multimillonario consejero delegado de Tesla Inc y Twitter, dio un paso más al publicar una carta en la que advertía del riesgo existencial que entraña la IA y pedía una normativa más estricta.
El 17 de abril, los más de diez de eurodiputados implicados en la redacción de la legislación firmaron una carta abierta en la que se mostraban de acuerdo con algunas partes de la carta de Musk e instaban a los líderes mundiales a celebrar una cumbre para encontrar formas de controlar el desarrollo de la IA avanzada.
Ese mismo día, no obstante, dos de ellos —Dragos Tudorache y Brando Benifei— propusieron cambios que obligarían a las empresas con sistemas de IA generativa a revelar cualquier material protegido por derechos de autor utilizado para entrenar sus modelos, según cuatro fuentes presentes en las reuniones, que solicitaron el anonimato debido a lo delicado de las discusiones.
Esta nueva y contundente propuesta recibió el apoyo de todos los partidos, según las fuentes.
Una propuesta del eurodiputado conservador Axel Voss, consistente en obligar a las empresas a pedir permiso a los titulares de los derechos antes de utilizar los datos, fue rechazada como demasiado restrictiva y por considerar que podría perjudicar al sector emergente.
Después de pulir los detalles durante la semana siguiente, la UE esbozó propuestas legislativas que podrían imponer un nivel de transparencia incómodo a una industria notoriamente hermética.
“Debo admitir que me sorprendió positivamente la facilidad con la que convergimos en lo que debería figurar en el texto sobre estos modelos”, dijo Tudorache a Reuters el viernes.
“Demuestra que hay un sólido consenso y un entendimiento compartido sobre cómo regular en este momento”, añadió.
La comisión votará el acuerdo el 11 de mayo y, si sale adelante, pasará a la siguiente fase de negociación, el diálogo a tres bandas, en el que los Estados miembros de la UE debatirán su contenido con la Comisión Europea y el Parlamento.
“Estamos esperando a ver si el acuerdo se mantiene hasta entonces”, dijo una fuente familiarizada con el asunto.
GRAN HERMANO CONTRA TERMINATOR
Hasta hace poco, los eurodiputados seguían sin estar convencidos de que la IA generativa mereciera una consideración especial.
En febrero, Tudorache dijo a Reuters que la IA generativa “no iba a ser tratada” en profundidad. “Es otro debate que no creo que vayamos a abordar en este texto”, dijo.
En referencia a los riesgos para la seguridad de los datos ante las advertencias de una inteligencia similar a la humana, dijo: “Me da más miedo el Gran Hermano que Terminator”.
Sin embargo, Tudorache y sus colegas coinciden ahora en la necesidad de leyes dirigidas específicamente al uso de la IA generativa.
Según las nuevas propuestas sobre “modelos fundacionales”, empresas como OpenAI, que cuenta con el respaldo de Microsoft Corp , tendrían que revelar cualquier material protegido por derechos de autor —libros, fotografías, vídeos, etc.— utilizado para entrenar sus sistemas.
Getty Images demandó a Stable Diffusion por utilizar fotos protegidas para entrenar sus sistemas. OpenAI también se ha enfrentado a críticas por negarse a compartir detalles del conjunto de datos utilizado para entrenar su software.
La eurodiputada Svenja Hahn explicó que “ha habido peticiones desde fuera y dentro del Parlamento para que se prohíba o se clasifique ChatGPT como de alto riesgo”. “El compromiso final es favorable a la innovación, ya que no clasifica estos modelos como de ‘alto riesgo’, sino que establece requisitos de transparencia y calidad”, añadió.
]]>
ROMA, 18 abr (Reuters) – El organismo de control de la protección de datos de Italia está dispuesto a reactivar el chatbot ChatGPT el 30 de abril si su fabricante, OpenAI, toma “medidas útiles” para responder a las preocupaciones de la agencia, dijo el responsable de la autoridad, Pasquale Stanzione, en una entrevista publicada el martes.
OpenAI, respaldada por Microsoft Corp, desconectó ChatGPT en Italia a finales de marzo, después de que el organismo restringiera temporalmente su tratamiento de datos personales e iniciara una investigación sobre una presunta infracción de las normas de privacidad.
“Estamos dispuestos a reabrir ChatGPT el 30 de abril si hay voluntad por parte de OpenAI de tomar medidas útiles. Creo que la hay por parte de la empresa, vamos a ver”, dijo Stanzione al diario Corriere della Sera.
El organismo de protección de datos dirigido por Stanzione presentó la semana pasada una lista de exigencias que, según dijo, OpenAI debe cumplir antes del 30 de abril para dar respuesta a sus preocupaciones.
Italia fue el primer país de Europa Occidental en poner freno al ChatGPT, pero su rápido desarrollo ha atraído la atención de parlamentarios y reguladores de varios países.
Los diputados de la UE instaron el lunes a los líderes mundiales a celebrar una cumbre para encontrar formas de controlar el desarrollo de sistemas avanzados de inteligencia artificial como ChatGPT, afirmando que se estaban desarrollando más rápido de lo esperado.
Stanzione dijo que Italia actuó unilateralmente para prohibir ChatGPT porque era necesario tomar medidas urgentes.
“Recurrir a una decisión europea habría supuesto un retraso de al menos tres o cuatro meses”, añadió.
]]>
Tokio, 10 abr (EFE).- El primer ministro japonés, Fumio Kishida, se reunió hoy en Tokio con el máximo responsable de OpenAI, la firma detrás de la popular herramienta de inteligencia artificial ChatGPT, para abordar aspectos normativos relacionados con esta tecnología y su posible adopción para tareas burocráticas.
El mandatario nipón recibió en su oficina tokiota este lunes a Sam Altman, director ejecutivo y cofundador de OpenAI, quien dijo que discutieron “los beneficios de la tecnología de inteligencia artificial y cómo reducir sus desventajas”, en declaraciones a los medios locales tras la reunión.
Altman también planteó a Kishida la posibilidad de que OpenAI, empresa con sede en San Francisco (EE.UU.) y que tiene a Microsoft entre sus principales inversores, abra una oficina en el país asiático.
Tras su encuentro con Kishida, el CEO de OpenAI se reunió con un grupo de legisladores del gobernante Partido Liberal Democrático (PLD), ante quienes subrayó que Japón “puede desempeñar un papel significativo como país de adopción y de uso” de ChatGPT.
Altman destacó que Japón “es uno de los centros mundiales” en cuanto al uso de la versión de chat GPT (siglas en inglés del término transformador preentrenado generativo) lanzada el pasado noviembre, con más de un millón de usuarios activos diarios.
En este contexto, señaló que las autoridades niponas “pueden ayudar a establecer la agenda global para regular” esta nueva tecnología, con vistas a “maximizar sus ventajas y minimizar sus desventajas”.
Al ser preguntado hoy en rueda de prensa sobre la postura del Gobierno ante ChatGPT, el portavoz del Ejecutivo, Hirokazu Matsuno, destacó que aunque “otros países como Italia están prohibiendo su uso temporalmente”, Japón considera que la nueva tecnología “puede conllevar tanto méritos como preocupación” por su posible impacto.
El portavoz añadió que Japón “va a estudiar la posibilidad de su uso para tareas administrativas” sin que esto afecte a los puestos de trabajo de los funcionarios públicos, al mismo tiempo que se “analizará la evolución” de la tecnología y se tomarán medidas necesarias para evitar la filtración de información secreta o datos personales.
La semana pasada, el ministro nipón de digitalización, Taro Kono, expresó en la misma línea su deseo de “considerar activamente” el uso de la inteligencia artificial generativa para el trabajo de ministerios y agencias del Gobierno japonés.
Durante la visita de Altman y sus reuniones con políticos nipones también se trataron las discusiones en el marco del G7 sobre estas últimas aplicaciones de la inteligencia artificial, ya que Japón ocupa la presidencia de turno del Grupo de los Siete y acogerá una cumbre de sus líderes a finales del próximo mes en Hiroshima.
]]>
Datos confidenciales de las empresas pueden estar en riesgo por la IA
NOTIPRESS.- El interés mundial por los modelos de inteligencia artificial generativa ha aumentado en los últimos meses. La creación de estas herramientas suscitó dudas sobre la seguridad de los conjuntos de datos utilizados para entrenarlas.
La plataforma del momento es ChatGPT de OpenAI, causó revuelo en el mundo tecnológico por su precisión de imitar la conversación humana. Desde su lanzamiento ha hecho que más empresas apuesten por la IA, tal es el caso de Google con la expansión de la herramienta en su Workspace.
Por muchos años, la inteligencia artificial ha estado presente entre los humanos y sus avances son cada vez mayores. Los asistentes virtuales se volvieron más intuitivos, convirtiéndose en herramientas útiles para hacer una gran cantidad de tareas en organizaciones.
Ante este panorama, investigadores de la Universidad de Surrey en Inglaterra, crearon un software para verificar cuánta información obtuvo una IA de la base de datos digital de una organización. Por medio del software de verificación, se puede saber si una IA ha aprendido demasiado o si incluso accedió a datos confidenciales.
Dicho software puede ser empleado por las empresas como parte de su protocolo de seguridad en línea. Además, es capaz de identificar si el IA ha identificado o logró explotar fallas en el código del software. Por ejemplo, en un juego online, se podrá identificar si un IA aprendió a ganar siempre a partir de explotar una falla de codificación.
El doctor Solofomampionona Fortunat Rajaona, investigador en verificación formal de privacidad en la universidad, comentó que los sistema de IA interactúan entre sí o con humanos. Por ello, es importante descubrir lo que sabe un sistema de datos inteligentes, sin embargo, ha sido un problema para el cual se han llevado muchos años en encontrar una solución funcional.
De acuerdo con el autor principal, el software de verificación puede deducir cuánto puede aprender el AI de su interacción; así como si cuenta con el conocimiento suficiente para una cooperación exitosa o si tiene demasiado conocimiento que pudiera romper la privacidad. Por medio de la verificación de lo aprendido por el IA se puede dar la confianza a las organizaciones para liberar de forma segura la herramienta.
]]>