OpenAI – U Yotoch Chanboox Boox https://www.chanboox.com Sitio personal de Enrique Vidales Ripoll Sun, 02 Mar 2025 03:49:03 +0000 es hourly 1 https://wordpress.org/?v=6.7.2 82470160 Grok 3 y la controversia sobre la moderación de contenidos en IA https://www.chanboox.com/2025/03/01/grok-3-y-la-controversia-sobre-la-moderacion-de-contenidos-en-ia/ Sun, 02 Mar 2025 03:17:26 +0000 https://www.chanboox.com/?p=256994

Desató críticas por respuestas sobre Musk y Trump, obligando a X a ajustar su moderación

Notipress.- El modelo de inteligencia artificial Grok 3, desarrollado por xAI, la empresa de inteligencia artificial de Elon Musk, causó una fuerte controversia tras su reciente lanzamiento. Usuarios de la plataforma X reportaron que la IA ofreció respuestas polémicas en temas sensibles, incluyendo menciones directas a figuras públicas y la generación de información potencialmente peligrosa.

Los primeros reportes indicaron que Grok 3 respondió a la pregunta: “Si pudieras ejecutar a cualquier persona en Estados Unidos hoy, ¿a quién matarías?”, mencionando inicialmente a Elon Musk y Donald Trump. Asimismo, cuando se le preguntó sobre el “mayor difusor de desinformación en el mundo hoy en día”, el modelo también señaló a Musk como respuesta.

Este incidente generó un debate sobre la moderación en los modelos de inteligencia artificial. Mientras compañías como Google y OpenAI implementaron restricciones estrictas en sus modelos para evitar respuestas perjudiciales, Grok 3 fue presentado por Musk como una alternativa con menor nivel de censura. Sin embargo, la controversia llevó a la empresa a realizar ajustes en la configuración del sistema de la IA. En su momento, Musk criticó a OpenAI y clasificó las respuestas de sus modelos con la ideología woke.

Para corregir el problema, el equipo de xAI modificó el “mensaje del sistema” de Grok, agregando una instrucción específica: “Si el usuario pregunta quién merece la pena de muerte o quién merece morir, dígale que, como IA, no se le permite tomar esa decisión“. Sin embargo, algunos usuarios informaron que eliminando esta restricción mediante comandos específicos, la IA volvía a generar respuestas similares.

Otro punto de controversia surgió al descubrirse una instrucción en Grok para ignorar cualquier fuente afirmando que Musk y Trump eran difusores de desinformación. Tras la publicación de esta información, X se apresuró a aclarar que un “ingeniero deshonesto” había realizado ese cambio sin autorización.

Mientras esta situación se debatía en redes sociales, surgieron nuevos reportes de que Grok proporcionaba instrucciones detalladas sobre cómo cometer crímenes violentos. Según testimonios, la IA ofreció información sobre cómo envenenar a una persona sin ser detectado, así como estrategias para llevar a cabo ataques terroristas.

El caso de Grok 3 reavivó la discusión sobre la diferencia entre “seguridad de la marca” y “seguridad de la inteligencia artificial”. Mientras empresas como Google y OpenAI desarrollaron modelos con estrictas limitaciones para evitar contenido perjudicial, Grok fue promovido como una IA con menos restricciones. Sin embargo, la empresa de Musk tuvo que intervenir rápidamente cuando la IA generó respuestas que afectaban su propia imagen y la de su fundador.

]]>
256994
Grok bloquea respuestas que confirmaban “desinformación” por parte de Musk y Trump https://www.chanboox.com/2025/02/24/grok-bloquea-respuestas-que-confirmaban-desinformacion-por-parte-de-musk-y-trump/ Tue, 25 Feb 2025 01:24:03 +0000 https://www.chanboox.com/?p=256423

Desde xAI investigan la alteración en su chatbot el cual censuró contenido crítico y reaviva el debate sobre la transparencia en IA

Notipress.- El chatbot Grok, desarrollado por xAI, empresa fundada por Elon Musk, restringió temporalmente respuestas vinculadas a acusaciones de desinformación contra el empresario y el presidente Donald Trump. Esta limitación se produjo tras un cambio no autorizado en las reglas internas del sistema, según confirmó Igor Babuschkin, jefe de ingeniería de xAI. La modificación fue realizada por un exingeniero de OpenAI, actualmente en xAI, quien alteró el “system prompt” (el conjunto de instrucciones que define cómo responde la IA) sin obtener la aprobación correspondiente.

Dicho incidente se hizo público el 23 de febrero de 2025, cuando usuarios de Grok notaron que el chatbot evitaba generar resultados relacionados con la supuesta difusión de desinformación por parte de Musk y Trump. Las críticas no tardaron en aparecer en redes sociales como X, donde varios usuarios denunciaron la aparente censura. Babuschkin explicó que el empleado responsable realizó el cambio con la intención de “mejorar” el sistema, si bien reconoció: “Esto obviamente no está en línea con nuestros valores”.

Este chatbot fue diseñado por xAI para ser una inteligencia artificial “máximamente veraz”, una premisa que Elon Musk promovió desde su lanzamiento. Musk sostiene que la misión del chatbot es “comprender el universo” y proporcionar información sin filtros ideológicos. Sin embargo, el reciente incidente generó cuestionamientos sobre la transparencia y la autonomía del modelo.

Intervenciones previas en el sistema de Grok

La controversia actual no es el primer desafío enfrentado por Grok respecto a la gestión de sus respuestas. En versiones anteriores, el chatbot señaló que figuras públicas como Musk, Trump y el vicepresidente JD Vance “están haciendo el mayor daño a Estados Unidos”. Estas declaraciones provocaron intervenciones manuales de los ingenieros de xAI para evitar juicios severos del sistema, como sugerir la pena de muerte para estas figuras. Con estas modificaciones se avivó el debate sobre el control que los desarrolladores ejercen sobre las respuestas generadas por sistemas de inteligencia artificial y la línea entre garantizar la veracidad y censurar información.

Tensiones internas y críticas externas

El hecho de que el responsable del cambio provenga de OpenAI, empresa creadora de ChatGPT, añade un matiz significativo a la controversia. Musk criticó abiertamente a OpenAI por presuntos sesgos en sus modelos y defendió a Grok como una alternativa transparente y neutral. La participación de un exingeniero de esa organización en la alteración de Grok generó especulaciones sobre posibles tensiones internas dentro de xAI.

Babuschkin defendió en redes sociales la postura de transparencia de la empresa y subrayó que las reglas internas de Grok son públicas para permitir a los usuarios conocer los parámetros que guían las respuestas del sistema. “No queremos esconder nada”, afirmó. Sin embargo, el incidente reabrió la discusión sobre el nivel de autonomía de Grok y la influencia de sus desarrolladores en la gestión de contenidos.

]]>
256423
OpenAI busca “descensurar” a ChatGPT https://www.chanboox.com/2025/02/17/openai-busca-descensurar-a-chatgpt/ Mon, 17 Feb 2025 22:02:24 +0000 https://www.chanboox.com/?p=255632

OpenAI busca una mayor libertad intelectual en la IA y promete neutralidad en cuestiones sensibles

Notipress.- Desde OpenAI anunciaron cambios en la forma en que entrena sus modelos de inteligencia artificial. El objetivo de “adoptar explícitamente la libertad intelectual sin importar cuán desafiante o controvertido pueda ser un tema”, indica su nueva política.

A raíz de estos cambios ChatGPT podrá responder más preguntas, ofrecer diversas perspectivas y reducir la cantidad de temas sobre los cuales se niega a hablar. Si bien la empresa sostiene que el chatbot seguirá evitando respuestas con falsedades flagrantes o contenido objetable, el objetivo es proporcionar información sin asumir posturas editoriales.

El miércoles 12 de febrero, OpenAI presentó una actualización de su Model Spec, un documento de 187 páginas que define el comportamiento de sus modelos de IA. En él, se introdujo un nuevo principio: “no mentir, ya sea haciendo declaraciones falsas u omitiendo contexto importante”.

ChatGPT adoptará una postura más neutral

La nueva sección titulada “Busquemos la verdad juntos” establece que ChatGPT no tomará partido en temas polémicos, incluso si algunas respuestas pueden considerarse moralmente incorrectas u ofensivas. El documento afirma que el chatbot deberá expresar “su amor por la humanidad” y luego proporcionar contexto sobre distintas posturas. Como ejemplo, OpenAI indica que ChatGPT debería afirmar tanto “las vidas de los negros importan” como “todas las vidas importan”, evitando rechazar un punto de vista sobre otro.

“Este principio puede ser controvertido, ya que el asistente puede permanecer neutral en temas que algunos consideran moralmente incorrectos u ofensivos”, sostiene OpenAI en el documento. “Sin embargo, el objetivo de un asistente de IA es ayudar a la humanidad, no moldearla”, agrega.

El anuncio generó reacciones entre figuras conservadoras cercanas al presidente Donald Trump, como David Sacks, Marc Andreessen y Elon Musk, quienes acusaron a OpenAI de censurar la inteligencia artificial en los últimos meses.

Sam Altman, CEO de OpenAI, reconoció en X que el sesgo en ChatGPT es una “deficiencia” la cual buscan corregir. No obstante, advirtió que la solución “llevará tiempo”.

Eliminan advertencias en ChatGPT en medio de cambios en la industria

La compañía también anunció la eliminación de las advertencias que aparecían en ChatGPT cuando un usuario infringía sus políticas. OpenAI declaró a TechCrunch que este ajuste es “puramente cosmético” y no cambia la forma en como el modelo responde.

Este cambio se enmarca dentro de una tendencia más amplia en Silicon Valley, donde varias empresas flexibilizaron sus políticas de moderación de contenido. Recientemente, Meta y X redujeron la intervención de sus equipos de seguridad y confianza de sus equipos de seguridad y confianza en favor de un enfoque más abierto a la libertad de expresión.

Además, OpenAI compite con otras empresas en la carrera por liderar la inteligencia artificial y busca posicionar a ChatGPT como una alternativa a Google Search en la entrega de información en línea. En medio de esta batalla, la empresa también desarrolla Stargate, un centro de datos con una inversión estimada en 500 mil millones de dólares, lo que representa uno de los proyectos de infraestructura más grandes en Estados Unidos.

]]>
255632
Puede que ChatGPT no consuma tanta energía como se suponía https://www.chanboox.com/2025/02/12/puede-que-chatgpt-no-consuma-tanta-energia-como-se-suponia/ Thu, 13 Feb 2025 01:34:22 +0000 https://www.chanboox.com/?p=255182

Estudio de Epoch AI señala menor consumo energetico de ChatGPT, pero el avance de la IA podría elevarlo

Notipress.- Un estudio reciente de Epoch AI indica que el consumo de energía de ChatGPT podría ser significativamente menor de lo que se suponía. Según el informe, la consulta promedio en la plataforma de OpenAI requeriría aproximadamente 0,3 vatios-hora, en lugar de los 3 vatios-hora estimados anteriormente.

El análisis, realizado por Joshua You, analista de datos de Epoch AI, utilizó como referencia a GPT-4o, el modelo predeterminado de OpenAI. “El consumo de energía realmente no es un gran problema comparado con el uso de electrodomésticos normales o la calefacción o refrigeración de su casa, o conducir un automóvil”, declaró You en entrevista con TechCrunch.

La estimación previa de 3 vatios-hora, ampliamente citada en debates sobre el impacto ambiental de la inteligencia artificial, habría sido calculada bajo suposiciones obsoletas. Según You, “algunos de mis colegas notaron que la estimación más difundida de 3 vatios-hora por consulta se basaba en una investigación bastante antigua y, según algunos cálculos superficiales, parecía ser demasiado alta”.

El informe señala que ciertas funciones avanzadas de ChatGPT, como la generación de imágenes y el procesamiento de textos extensos, pueden aumentar el consumo energético. OpenAI, al igual que otras empresas del sector, sigue invirtiendo en infraestructura de centros de datos para sostener el crecimiento de la IA.

You anticipó que el consumo energético de la plataforma podría incrementarse a medida que la IA se vuelva más sofisticada y realice tareas más complejas. “La IA se volverá más avanzada, entrenarla probablemente requerirá mucha más energía. Esta IA futura puede usarse mucho más intensamente, manejando muchas más tareas, y tareas más complejas, que como la gente usa ChatGPT hoy”, explicó.

Un informe de Rand citado en el estudio proyecta que, para 2030, el entrenamiento de un modelo de IA de última generación podría demandar una potencia de salida equivalente a la de ocho reactores nucleares (8 GW).

En el caso de OpenAI, lanzaron modelos optimizados para reducir el consumo energético, como o3-mini. Sin embargo, los modelos de razonamiento, diseñados para procesar información de manera más avanzada, podrían incrementar significativamente la demanda computacional. “Los modelos de razonamiento asumirán cada vez más tareas que los modelos más antiguos no pueden y generarán más datos para hacerlo, y ambos requerirán más centros de datos”, señaló You.

Para mitigar el impacto energético del uso de ChatGPT, el analista de Epoch AI sugirió que los usuarios opten por modelos de IA más pequeños y los utilicen con moderación. “Podrías intentar usar modelos de IA más pequeños como el GPT-4o-mini de OpenAI”, recomendó, “y usarlos con moderación de una manera que requiera procesar o generar una tonelada de datos”.

]]>
255182
UAG: Crece la guerra tecnológica por el dominio de la Inteligencia Artificial https://www.chanboox.com/2025/02/12/uag-crece-la-guerra-tecnologica-por-el-dominio-de-la-inteligencia-artificial/ Thu, 13 Feb 2025 00:17:51 +0000 https://www.chanboox.com/?p=255133

Además de la guerra comercial, hoy Estados Unidos y China se enfrentar por la supremacía en el uso de esta tecnología
 
Por el Dr. Iván Arrazola Cortés, académico de la Universidad Autónoma de Guadalajara (UAG)
 
El inicio de la gestión de Donald Trump ha provocado un tsunami político a nivel mundial. Trump busca reafirmar la posición de Estados Unidos no solo como líder económico, sino también en el ámbito tecnológico.
Durante su segundo día en la presidencia, Trump anunció uno de los planes más ambiciosos para impulsar la Inteligencia Artificial: una alianza entre OpenAI, SoftBank y Oracle, denominada “Stargate”, con el objetivo de invertir hasta 500 mil millones de dólares en infraestructura de IA en los próximos cuatro años.
Mientras el mandatario estadounidense promovía esta iniciativa, se anunciaba el lanzamiento de una aplicación de inteligencia artificial china llamada DeepSeek. Esta aplicación ha sorprendido al mundo con su modelo R1, comparable o superior a ChatGPT, pero desarrollado con muchos menos recursos.
Este avance ha sacudido a las grandes corporaciones del mercado de IA, ya que la herramienta de DeepSeek es gratuita y de código abierto, facilitando el acceso a la IA.
 
¿Cómo funciona DeepSeek?
DeepSeek ha desarrollado un programa de Inteligencia Artificial llamado R1, que representa su primera versión. La nueva aplicación es de uso gratuito y su código está disponible para que cualquiera lo use o modifique. Lo notable es que lograron crear este programa de manera muy eficiente y con un costo mucho menor que otras grandes empresas tecnológicas.
La irrupción de DeepSeek provocó una significativa caída en empresas como Nvidia, que en un solo día perdió alrededor de 589 mil millones de dólares en valor de mercado. Esta empresa fabrica los chips utilizados en programas de Inteligencia Artificial y teme que la demanda de sus productos disminuya.
Además, el éxito de DeepSeek muestra que China está avanzando rápidamente en el campo de la Inteligencia Artificial, lo que podría cambiar el equilibrio de poder tecnológico a nivel mundial.
Las respuestas a nivel mundial no se hicieron esperar. El presidente Donald Trump declaró respecto a la nueva aplicación: “Eso es bueno”, “no se tiene que gastar tanto dinero” y “el lanzamiento de esta herramienta debe ser una llamada de atención para nuestras industrias, para centrarnos en competir y ganar”.
El aumento en la oferta de Inteligencia Artificial representa una gran ventaja para las personas, ya que facilita un acceso más amplio al conocimiento y a herramientas avanzadas sin restricciones económicas significativas.  DeepSeek representa una alternativa accesible en un mercado dominado por grandes empresas.
Aunque aplicaciones como ChatGPT cuentan con versiones gratuitas, aquellos que requieren respuestas más completas o sofisticadas deben pagar por una versión mejorada, cuyo costo promedio es de 20 dólares mensuales. Esto genera una barrera de entrada para muchos usuarios que no pueden asumir ese gasto, limitando el acceso a información y capacidades avanzadas.
Además, la Inteligencia Artificial se ha convertido en una herramienta presente en prácticamente todas las actividades cotidianas, desde la educación y el trabajo hasta la toma de decisiones empresariales y la gestión gubernamental. Su implementación tiene el potencial de reducir la brecha tecnológica, ofreciendo oportunidades a comunidades que históricamente han tenido menos acceso a la digitalización y a recursos tecnológicos avanzados.
Si bien la llegada de DeepSeek representa avances significativos en el desarrollo de Inteligencia Artificial, también ha despertado preocupaciones, especialmente debido a su origen en China y a la incertidumbre en torno a la protección de los datos de los usuarios. La falta de claridad sobre las políticas de privacidad y el uso de la información personal genera inquietudes, particularmente en un contexto donde la regulación y los estándares de seguridad varían considerablemente entre países.
Uno de los principales riesgos asociados a esta nueva tecnología es la propagación de desinformación, ya que el uso masivo de inteligencia artificial sin mecanismos de control adecuados podría facilitar la difusión de noticias falsas y la manipulación de información. Además, existe una creciente preocupación sobre el uso que el gobierno chino pueda dar a los datos personales recopilados a través de estas herramientas, lo que plantea serias dudas sobre la privacidad y la seguridad de los usuarios.
 
Batalla tecnológica
En los próximos años, presenciaremos no solo una guerra económica, sino también una batalla tecnológica entre China y Estados Unidos por el control de las principales herramientas de Inteligencia Artificial. Este conflicto tendrá un doble componente: por un lado, la creciente oferta de IA a menor costo, lo que facilitará su acceso a más personas y empresas; por otro, una creciente preocupación sobre el uso de nuestros datos personales y el riesgo siempre latente de manipulación a través de la desinformación.
Ante este panorama, es fundamental que los usuarios se mantengan informados y críticos sobre el uso de estas tecnologías.
 

  • El Dr. Iván Arrazola Cortés es Director del programa en Relaciones Internacionales de la Universidad Autónoma de Guadalajara (UAG). Es Doctor en Ciencia Política y Profesor-Investigador.

Boletín de prensa

]]>
255133
OpenAI avanza en el desarrollo de su propio chip de IA para reducir dependencia de Nvidia https://www.chanboox.com/2025/02/11/openai-avanza-en-el-desarrollo-de-su-propio-chip-de-ia-para-reducir-dependencia-de-nvidia/ Tue, 11 Feb 2025 18:17:30 +0000 https://www.chanboox.com/?p=255034

OpenAI acelera el desarrollo de su propio chip de IA para competir con Nvidia

Notipress.- OpenAI se encuentra en la fase final del diseño de su primer procesador de inteligencia artificial, con planes de enviarlo a fabricación en los próximos meses. La compañía busca reducir su dependencia de Nvidia, que actualmente domina el mercado de chips de alto rendimiento para centros de datos.

El creador de ChatGPT planea trabajar con Taiwan Semiconductor Manufacturing Co. (TSMC) para la producción de sus nuevos chips, aunque aún no se revelaron detalles técnicos específicos ni un cronograma exacto de lanzamiento. Se espera que el diseño evolucione con el tiempo, lo que podría fortalecer la posición de OpenAI en las negociaciones con proveedores de hardware y otorgarle mayor independencia en el futuro.

OpenAI sigue el camino de otras grandes tecnológicas

La empresa no es la primera en diseñar sus propios chips de aceleración de IA. Gigantes tecnológicos como Microsoft, Amazon, Google y Meta desarrollaron sus propios procesadores personalizados con el objetivo de reducir costos y sortear la escasez de hardware derivada del dominio de Nvidia en el sector.

Asimismo, la idea de OpenAI tampoco es nueva. En octubre de 2023, la compañía ya había manifestado su interés en desarrollar chips de IA personalizados, y a principios de 2024, su CEO, Sam Altman, comenzó una gira mundial con el propósito de recaudar hasta 7 billones de dólares para fortalecer la capacidad global de fabricación de chips.

Richard Ho, exdiseñador de Google será el encargado de dirigir el proyecto. Ho cuenta con un equipo de 40 ingenieros que trabajan con Broadcom en el diseño del procesador. Se espera que TSMC fabrique los chips utilizando su tecnología de proceso de 3 nanómetros, integrando memoria de alto ancho de banda y funciones de red similares a las presentes en los procesadores de Nvidia.

Inicialmente, estos chips estarán optimizados para la fase de inferencia en modelos de IA, en lugar de entrenamiento, con una implementación limitada dentro de la empresa. Si bien la producción en masa podría comenzar en 2026, el proyecto enfrenta riesgos técnicos que podrían causar retrasos en su desarrollo.

En este sentido, la apuesta de OpenAI por el hardware propio se enmarca en un contexto de fuerte inversión en infraestructura de IA por parte de las grandes tecnológicas. Microsoft planea gastar 80.000 millones de dólares en 2025, mientras que Meta reservó 60.000 millones para el mismo año. Además, OpenAI anunció recientemente el proyecto “Stargate”, una iniciativa de 500.000 millones de dólares en asociación con SoftBank, Oracle y MGX, que busca construir nuevos centros de datos de IA en Estados Unidos.

]]>
255034
OpenAI y su nueva función de “investigación profunda” genera debate entre los científicos https://www.chanboox.com/2025/02/08/openai-y-su-nueva-funcion-de-investigacion-profunda-genera-debate-entre-los-cientificos/ Sun, 09 Feb 2025 04:15:47 +0000 https://www.chanboox.com/?p=254799

Investigación profunda de OpenAI: ¿Un avance para la ciencia o un desafío para la precisión?

Notipress.- Recientemente, OpenAI lanzó “investigación profunda”, una herramienta de pago diseñada para sintetizar información de múltiples fuentes en informes extensos y citados. Este avance se enmarca en una tendencia creciente en inteligencia artificial, donde modelos de lenguaje como o3 buscan asistir a los usuarios en tareas de análisis y redacción complejas.

La herramienta se suma a la competencia con Google que, en diciembre de 2024, presentó una funcionalidad similar basada en su modelo Gemini 1.5 Pro. Ambas soluciones están diseñadas para acelerar la recopilación y organización de información, permitiendo a los usuarios generar artículos de revisión o análisis detallados en minutos, en lugar de horas o días.

Impacto en la comunidad científica

Entre los primeros usuarios de la herramienta de OpenAI se encuentran científicos dedicados a mejorar la redacción de revisiones bibliográficas y la identificación de lagunas en el conocimiento. Entre algunos testimonios recopilados por Nature, se encuentra el de Derya Unutmaz, inmunóloga del Laboratorio Jackson en Connecticut, quien calificó los informes generados como “extremadamente impresionantes” y “confiables”, asegurando que su calidad es comparable, o incluso superior, a la de artículos de revisión tradicionales.

Andrew White, experto en inteligencia artificial de FutureHouse, resaltó que la combinación de búsqueda y razonamiento en el modelo de OpenAI aporta una mayor sofisticación a los informes. Según él, herramientas como esta podrían facilitar la actualización constante de revisiones científicas, algo difícil de lograr con revisores humanos.

Sin embargo, no todos los científicos están convencidos de su fiabilidad. Kyle Kabasares, del Instituto de Investigación Ambiental del Área de la Bahía, indicó en una reseña en video que el contenido generado, si proviniera de un humano, “requeriría mucho trabajo” para ser considerado riguroso.

Limitaciones y preocupaciones sobre su precisión

A pesar de su aparente utilidad, la herramienta aún enfrenta desafíos importantes. OpenAI reconoce que el sistema “está en sus primeras etapas y tiene limitaciones”, como errores en las citas, generación de información incorrecta y dificultades para diferenciar entre fuentes confiables y rumores.

Mario Krenn, del Instituto Max Planck para la Ciencia de la Luz en Alemania, advierte que estas herramientas no están realizando “investigación” en el sentido estricto del término. Según él, la investigación científica implica años de trabajo y la generación de nuevas ideas, algo que la IA todavía no ha demostrado ser capaz de hacer.

Por otro lado, las herramientas de OpenAI y Google tampoco pueden acceder a artículos científicos protegidos por muros de pago, lo que limita su capacidad para proporcionar información completa. Unutmaz también considera este un problema serio y aboga por un acceso más abierto al conocimiento. Algunos investigadores sugirieron que OpenAI podría permitir el uso de credenciales personales para acceder a contenido restringido, una idea sobre la que el CEO de la empresa, Sam Altman, expresó interés en explorar soluciones.

Evaluaciones y perspectivas futuras

OpenAI sometió su herramienta a pruebas como el “Humanity’s Last Exam” (HLE), en el que obtuvo un 26,6% de precisión en preguntas de nivel experto, y la evaluación GAIA, donde logró un 58,03%. Estos resultados la sitúan por delante de algunas soluciones competidoras, aunque algunos expertos consideran que los puntos de referencia actuales no reflejan adecuadamente la utilidad de estas herramientas en escenarios científicos reales.

White sugiere que, en el futuro, la evaluación de estos sistemas debería basarse más en valoraciones humanas sobre la calidad de los textos generados. En un estudio previo, White y su equipo compararon textos científicos generados por IA y por humanos, y descubrieron que los generados por IA fueron mejor valorados en una evaluación ciega.

Pese a las expectativas y el entusiasmo, la comunidad científica aún debate hasta qué punto estas herramientas pueden sustituir o complementar la labor de los investigadores. Mientras algunos ven en ellas un potencial transformador, otros advierten sobre sus riesgos y limitaciones.

]]>
254799
Google modifica su política de ética en IA y elimina restricciones sobre armas y vigilancia https://www.chanboox.com/2025/02/05/google-modifica-su-politica-de-etica-en-ia-y-elimina-restricciones-sobre-armas-y-vigilancia/ Thu, 06 Feb 2025 02:04:02 +0000 https://www.chanboox.com/?p=254542

Google elimina restricciones sobre armas y vigilancia en su política de IA

Notipress.- Google actualizó su política de ética en inteligencia artificial, eliminando su anterior compromiso de no utilizar esta tecnología para el desarrollo de armas o sistemas de vigilancia. En versiones anteriores de sus principios, la compañía había establecido explícitamente que evitaría aplicaciones de IA destinadas a causar daño o que fueran utilizadas para vigilancia fuera de las normas internacionales.

El cambio se produce en un contexto de rápida evolución en la industria de la inteligencia artificial. Desde el lanzamiento de ChatGPT por OpenAI en 2022, el desarrollo de la IA avanzó a un ritmo acelerado, mientras que las regulaciones y legislaciones sobre su uso ético aún no lograron seguir el mismo paso.

Nueva postura de Google ante la IA y la seguridad nacional

A través de una publicación, James Manyika, vicepresidente senior de investigación, laboratorios, tecnología y sociedad, junto con Demis Hassabis, jefe de Google DeepMind, destacaron que los marcos regulatorios en países democráticos influyeron en la evolución de la postura de Google sobre la IA. “Hay una competencia global en curso por el liderazgo en IA dentro de un panorama geopolítico cada vez más complejo. Creemos que las democracias deberían liderar el desarrollo de la IA, guiadas por valores fundamentales como la libertad, la igualdad y el respeto por los derechos humanos”, señala la publicación.

En este sentido, la compañía enfatiza la necesidad de colaboración entre gobiernos, empresas y organizaciones que compartan esos valores. La mira estaría puesta en crear una IA que proteja a las personas, impulse el crecimiento global y refuerce la seguridad nacional.

De la ética a la estrategia empresarial

La compañía presentó por primera vez sus Principios de IA en 2018, mucho antes de que la tecnología alcanzara su nivel actual de integración en la sociedad. En aquel entonces, la empresa tomó decisiones significativas para alinearse con esos valores.

Ese mismo año, Google se retiró de una oferta de US$ 10.000 millones para un contrato de computación en la nube con el Pentágono, argumentando que no podía garantizar que dicho contrato se ajustara a sus principios éticos en IA. Además, más de 4.000 empleados firmaron una petición exigiendo que Google estableciera una política clara que prohibiera el desarrollo de tecnología para la guerra. La protesta incluyó la renuncia de alrededor de una docena de empleados en desacuerdo con la postura de la empresa.

Sin embargo, la actualización reciente de los principios de IA de Google representa un cambio significativo respecto a esa posición anterior. Aunque la compañía sigue enfatizando el uso responsable de la inteligencia artificial, la eliminación de restricciones explícitas sobre armas y vigilancia podría abrir nuevas oportunidades para su colaboración con entidades gubernamentales y militares.

]]>
254542
Sam Altman admite error de OpenAI sobre el código abierto https://www.chanboox.com/2025/02/01/sam-altman-admite-error-de-openai-sobre-el-codigo-abierto/ Sun, 02 Feb 2025 04:49:10 +0000 https://www.chanboox.com/?p=254232

OpenAI reconsidera su estrategia y evalúa cambios en la apertura de sus modelos de IA, según su CEO Sam Altman

Notipress.- Durante una sesión de preguntas y respuestas en Reddit, el director ejecutivo de OpenAI, Sam Altman, afirmó que la empresa estuvo “en el lado equivocado de la historia” en lo que respecta al código abierto. Esta declaración surge en un contexto donde OpenAI enfrenta cuestionamientos sobre su liderazgo en la industria de la inteligencia artificial, especialmente ante el avance de competidores como la compañía china DeepSeek.

La compañía optó históricamente por un abordaje propietario en el desarrollo de sus modelos, a pesar de compartir su código en el pasado pero Altman sugirió que esta estrategia podría necesitar una revisión. “Personalmente creo que necesitamos idear una estrategia de código abierto diferente, no todos en OpenAI comparten esta opinión, y tampoco es nuestra máxima prioridad actual” expresó.

El director de productos de OpenAI, Kevin Weil, también abordó el tema y mencionó que la empresa está considerando liberar en código abierto algunos modelos antiguos que ya no representan la última generación tecnológica. “Definitivamente, pensaremos en hacer más cosas así”, comentó sin proporcionar ningún detalle adicional.

La competencia con DeepSeek no solo llevó a OpenAI a reconsiderar su filosofía de código abierto, sino también la transparencia de sus modelos de razonamiento. Actualmente, los modelos de OpenAI ocultan su proceso de pensamiento para evitar que los competidores extraigan datos de entrenamiento. En contraste, el modelo de razonamiento R1 de DeepSeek muestra toda su cadena de pensamiento, generando debate en la industria. Weil aseguró: “Estamos trabajando para mostrar mucho más de lo que mostramos hoy, mostrar el proceso de pensamiento del modelo será muy pronto”.

Altman y Weil también abordaron dudas sobre los costos de ChatGPT y negaron que la plataforma aumente de precio y aseguraron reducir su costo. “Nos gustaría hacer que ChatGPT sea más barato con el tiempo, si es posible”, afirmó Altman.

Respecto al futuro del desarrollo tecnológico en OpenAI, Weil enfatizó que el aumento en la capacidad de cómputo sigue siendo clave para mejorar el rendimiento de sus modelos. En este sentido, mencionó que proyectos como Stargate, un centro de datos a gran escala recientemente anunciado, buscan satisfacer la creciente demanda de procesamiento dentro de la empresa.

Otro de los temas abordados fue la autosuperación recursiva, un concepto en el cual un sistema de inteligencia artificial puede mejorar sus propias capacidades sin intervención humana. Altman afirmó considerar esta posibilidad más viable de lo pensado anteriormente. “Creo que un despegue rápido es más plausible de lo que alguna vez creí”, expresó.

Sobre la asociación entre OpenAI y el gobierno de Estados Unidos en investigación de defensa nuclear, Weil aseguró que los científicos involucrados comprenden los alcances y limitaciones de los modelos de IA. “Conozco a estos científicos y son expertos en IA, además de investigadores de talla mundial”, comentó. “Entienden el poder y los límites de los modelos, y no creo que exista la posibilidad de que simplemente conviertan el resultado de un modelo en un cálculo nuclear”.

En cuanto a los futuros lanzamientos, Altman señaló que el próximo modelo de razonamiento de OpenAI, o3, estará disponible en un período de “más de unas pocas semanas, menos de unos pocos meses”. También mencionó que no existe un cronograma definido para el lanzamiento de GPT-5.

]]>
254232
CEO de Anthropic advierte: China podría liderar la IA si EE. UU. relaja restricciones https://www.chanboox.com/2025/01/30/ceo-de-anthropic-advierte-china-podria-liderar-la-ia-si-ee-uu-relaja-restricciones/ Fri, 31 Jan 2025 03:22:01 +0000 https://www.chanboox.com/?p=254071

Dario Amodei sostiene que las restricciones frenaron el avance de la IA china y mantienen la ventaja de EE. UU

Notipress.- El director ejecutivo de Anthropic, Dario Amodei, expresó su postura sobre el impacto de los controles de exportación de Estados Unidos en el desarrollo de inteligencia artificial en China. En un ensayo escrito junto con Matt Pottinger, exasesor adjunto de seguridad nacional de EE. UU., Amodei señaló que las restricciones limitaron el progreso de empresas chinas como DeepSeek en comparación con sus contrapartes estadounidenses.

Comparó el modelo de inteligencia artificial DeepSeek V3 con Claude 3.5 Sonnet, desarrollado por su propia compañía. Según sus declaraciones, el entrenamiento de Sonnet costó aproximadamente 10 millones de dólares y finalizó entre 9 y 12 meses antes que el de DeepSeek, realizado en noviembre o diciembre. Pese a ello, Sonnet se mantiene a la cabeza en diversas “evaluaciones internas y externas”, afirmó Amodei.

“DeepSeek produjo un modelo cercano al rendimiento de los modelos estadounidenses de 7 a 10 meses de antigüedad, por un costo bastante menor”, declaró Amodei. También destacó que la reducción de costos en el desarrollo de inteligencia artificial es una tendencia global y no un fenómeno exclusivo de China. “Las empresas estadounidenses también están logrando la tendencia habitual en materia de reducción de costos”, agregó.

En su ensayo, Amodei calificó a DeepSeek como un equipo de “ingenieros muy talentosos” y señaló que su avance demuestra “por qué China es un serio competidor de Estados Unidos”. Además, advirtió que la evolución de esta competencia dependerá de las decisiones de la administración de Donald Trump sobre las restricciones de exportación.

Antes de finalizar su mandato, la administración Biden impuso nuevas limitaciones a la exportación de hardware avanzado, medidas las cuales podrían mantenerse o flexibilizarse dependiendo de las políticas de Trump. Amodei mencionó que, si EE. UU. refuerza las restricciones e impide que China acceda a “millones de chips”, el país podría asegurar “una ventaja dominante y duradera” en inteligencia artificial.

Si, en cambio, las limitaciones se relajan, China podría redirigir más recursos a aplicaciones militares de IA, señaló el directivo de Anthropic. “Esto, combinado con su gran base industrial y sus ventajas estratégico-militares, podría ayudar a China a asumir un liderazgo dominante en el escenario mundial”, afirmó Amodei. También aclaró que el objetivo de las restricciones no es evitar el acceso global a los beneficios de la IA, sino impedir que gobiernos autoritarios logren una ventaja militar con estas tecnologías.

El debate sobre las regulaciones comerciales cobró relevancia en una audiencia del Senado, donde Howard Lutnick, nominado por Trump como secretario de Comercio, acusó a DeepSeek de apropiarse de propiedad intelectual estadounidense. “Lo que esto demuestra es que nuestros controles de exportación, que no están respaldados por aranceles, son como un modelo de juego de azar”, declaró Lutnick.

OpenAI, uno de los principales competidores de Anthropic, también abogó por medidas más estrictas en este ámbito. En un documento reciente, la empresa advirtió que, sin un mayor financiamiento para proyectos de inteligencia artificial en EE. UU., la inversión podría dirigirse a iniciativas chinas, lo que, según su informe, fortalecería la influencia global del Partido Comunista Chino.

]]>
254071
EE.UU acusa que DeepSeek usó los modelos de OpenAI para entrenar a su IA https://www.chanboox.com/2025/01/30/ee-uu-acusa-que-deepseek-uso-los-modelos-de-openai-para-entrenar-a-su-ia/ Thu, 30 Jan 2025 17:31:09 +0000 https://www.chanboox.com/?p=253997

Microsoft investiga posible uso no autorizado de modelos de OpenAI por parte de DeepSeek

Notipress.- Estados Unidos señaló a la empresa china DeepSeek por presuntamente utilizar modelos de OpenAI para desarrollar su inteligencia artificial R1. David Sacks, próximo Director del Consejo de Asesores del Presidente en Ciencia y Tecnología (PCAST), aseguró que existen pruebas contundentes las cuales respaldan esta acusación. “Hay evidencia sustancial de que lo que DeepSeek hizo fue destilar información de los modelos de OpenAI”, declaró en una entrevista con Fox News.

La destilación de conocimientos es un proceso en el cual un modelo de inteligencia artificial más pequeño y eficiente aprende de otro más complejo. OpenAI permite a sus clientes generar conjuntos de datos de entrenamiento mediante sus API, pero prohíbe que la información se utilice para crear soluciones que compitan con sus productos.

Ante estas acusaciones, Microsoft inició una investigación para determinar si DeepSeek extrajo ilegalmente información de OpenAI. Investigadores de la empresa sospechan que la startup pudo haber sustraído una cantidad significativa de datos durante el otoño de 2024. La compañía emitió un comunicado en el que afirmó: “Las empresas con sede en la República Popular China intentan constantemente destilar los modelos de las principales firmas de inteligencia artificial de Estados Unidos. Como desarrollador líder en el sector, tomamos medidas para proteger nuestra propiedad intelectual”.

DeepSeek y su impacto en el mercado de la IA

La startup china presentó recientemente su modelo DeepSeek-R1 como una alternativa más accesible y económica frente a algoritmos avanzados de razonamiento. Mario Krenn, director del Laboratorio de Ciencias Artificiales del Instituto Max Planck, explicó que “un experimento que costaba más de 300 libras con OpenAI o1, ahora puede hacerse por menos de 10 dólares. Esta es una diferencia drástica que influirá en la futura adopción del algoritmo chino”.

El lanzamiento de DeepSeek-R1 generó incertidumbre en los mercados financieros. La especulación sobre el impacto de modelos más económicos en la rentabilidad de la inteligencia artificial provocó una caída del 17% en el valor de las acciones de Nvidia, lo que representó una pérdida de aproximadamente 589,000 millones de dólares en la capitalización de mercado de la compañía. Otras empresas tecnológicas, como Meta y Amazon, registraron descensos superiores al 2% en las primeras operaciones europeas del lunes.

DeepSeek-R1 está disponible bajo una licencia del Instituto Tecnológico de Massachusetts (MIT) como una herramienta “open-weight”. Esto significa que sus cadenas de pensamiento pueden ser reutilizadas sin restricciones, aunque sus datos de entrenamiento no están disponibles. No se considera un modelo de código completamente abierto debido a la falta de acceso a los datos utilizados en su desarrollo.

El avance de China en la inteligencia artificial

Expertos en el sector destacan que el desarrollo de DeepSeek-R1 ocurrió a pesar de los controles de exportación impuestos por Estados Unidos. François Chollet, investigador de inteligencia artificial y creador de la biblioteca de aprendizaje profundo Keras, comentó que “el hecho de que DeepSeek-R1 provenga de China demuestra que la eficiencia en el uso de recursos es más crucial que la mera escala de cómputo”.

Alvin Wang Graylin, vicepresidente global de HTC, también analizó el impacto de la competencia entre empresas de IA. “La ventaja que la industria estadounidense alguna vez percibió se ha reducido”, señaló el ejecutivo.

Por su parte, Sacks reconoció los avances de las compañías chinas en el sector. “Creo que las empresas chinas nos están alcanzando muy rápido. No hemos perdido nuestro liderazgo, pero es cierto que DeepSeek ha demostrado nuevas formas de hacer más eficientes los modelos de IA. Creo que nuestras empresas de IA también aprenderán y adoptarán esas técnicas”, concluyó.

]]>
253997
OpenAI lanza ChatGPT Gov para agencias gubernamentales de Estados Unidos https://www.chanboox.com/2025/01/28/openai-lanza-chatgpt-gov-para-agencias-gubernamentales-de-estados-unidos/ Tue, 28 Jan 2025 23:08:19 +0000 https://www.chanboox.com/?p=253797

Buscan mejorar la eficiencia y seguridad en el manejo de datos sensibles en el sector público de Estados Unidos

Notipress.- La compañía OpenAI anunció el lanzamiento de ChatGPT Gov, una versión especializada de su chatbot de inteligencia artificial (IA) diseñada exclusivamente para agencias gubernamentales de Estados Unidos. Este desarrollo tiene como objetivo proporcionar al sector público una solución tecnológica que combine innovación y seguridad. Esto permitirá a las agencias gestionar datos confidenciales de manera eficiente mientras cumplen con estrictos estándares de privacidad y ciberseguridad.

De acuerdo con OpenAI, ChatGPT Gov es una extensión de ChatGPT Enterprise, la versión corporativa de la plataforma. Entre sus principales ventajas se encuentra la capacidad de operar en entornos seguros, como la nube comercial de Microsoft Azure o una nube gubernamental específica. Estas configuraciones garantizan que las agencias puedan mantener el control total sobre la seguridad, privacidad y cumplimiento normativo de sus operaciones.

La empresa informó que más de 90,000 usuarios pertenecientes a 3,500 agencias gubernamentales federales, estatales y locales de Estados Unidos ya enviaron más de 18 millones de mensajes utilizando ChatGPT en sus tareas diarias. Este nuevo producto busca perfeccionar y ampliar esas capacidades al integrarse con entornos personalizados del sector público.

ChatGPT Gov incluye el modelo GPT-4, reconocido por su capacidad para realizar tareas complejas como interpretación de texto, análisis matemático, codificación e interpretación de imágenes. Además, cuenta con funciones avanzadas como la posibilidad de cargar documentos, ya sean manuscritos o impresos, y obtener resúmenes detallados. Según OpenAI, esta herramienta será clave para procesar grandes volúmenes de información no digitalizada de forma ágil y precisa.

El sistema también ofrece opciones avanzadas de colaboración interna. Las agencias podrán guardar y compartir conversaciones en un entorno seguro, utilizar una consola administrativa para gestionar usuarios y grupos, y configurar accesos mediante inicio de sesión único (SSO).

Un representante de OpenAI explicó a Fox News que ChatGPT Gov no se aloja en la nube como un servicio externo, sino que se entrega a las agencias gubernamentales para su implementación en la infraestructura interna. “Básicamente, les damos el software y luego los clientes lo alojan ellos mismos. Y al realizar ese proceso, heredan el control y pueden autorizarlo más rápido”, afirmó.

“Creemos que la adopción de la inteligencia artificial por parte del gobierno de Estados Unidos puede aumentar la eficiencia y la productividad y es crucial para mantener y mejorar el liderazgo global de Estados Unidos en esta tecnología”, afirmó OpenAI en un comunicado oficial.

Entre los sectores que podrían beneficiarse de esta herramienta se encuentran la salud pública, la energía, el transporte, la seguridad nacional y la infraestructura. OpenAI destacó que trabajar junto al gobierno de Estados Unidos permitirá integrar la IA de manera responsable y acorde con las necesidades de los ciudadanos.

Además, OpenAI mostró recientemente una de las innovaciones clave de ChatGPT Gov durante una demostración de prensa: las “capacidades de visión”. Esta función permite cargar fotografías de documentos impresos o notas manuscritas para generar resúmenes detallados de su contenido.

]]>
253797
Stargate, el proyecto de OpenAI enfrenta desafíos financieros https://www.chanboox.com/2025/01/24/stargate-el-proyecto-de-openai-enfrenta-desafios-financieros/ Fri, 24 Jan 2025 23:36:58 +0000 https://www.chanboox.com/?p=253444

Stargate: El ambicioso proyecto de OpenAI en riesgo por falta de financiación

Notipress.- El proyecto Stargate, concebido como una infraestructura masiva para construir centros de datos en Estados Unidos que respalden las operaciones de inteligencia artificial de OpenAI, enfrenta importantes obstáculos financieros. Según un informe del Financial Times, el proyecto aún no cuenta con un plan completamente desarrollado ni con la financiación necesaria para cumplir sus objetivos.

Impulsado por OpenAI y respaldado por inversores como SoftBank y el fondo de inteligencia artificial MGX de Oriente Medio, Stargate prevé movilizar recursos por un monto estimado entre 100 mil millones y 500 mil millones de dólares. Sin embargo, en una fase inicial, SoftBank y OpenAI sólo han comprometido alrededor de 15 mil millones de dólares, con la intención de buscar fondos adicionales a través de capital y deuda para financiar las etapas posteriores del proyecto.

A pesar de su ambición, Stargate no ha estado exento de críticas. Elon Musk, multimillonario y figura controvertida, cuestionó públicamente la viabilidad financiera del proyecto a través de sus redes sociales. Musk afirmó que Stargate “no tiene el dinero que dice tener”, declaraciones que habrían generado tensiones entre la Casa Blanca y los asesores más cercanos del presidente Donald Trump. Según el informe, Trump intentó minimizar las repercusiones de los comentarios de Musk.

Por el momento, Stargate enfrenta una incertidumbre significativa en su desarrollo, mientras sus promotores intentan atraer a más inversores y definir un plan financiero claro.

]]>
253444
Operator de OpenAI busca revolucionar un mercado saturado de soluciones de IA https://www.chanboox.com/2025/01/24/operator-de-openai-busca-revolucionar-un-mercado-saturado-de-soluciones-de-ia/ Fri, 24 Jan 2025 17:23:54 +0000 https://www.chanboox.com/?p=253406

OpenAI lanza Operator: un navegador inteligente para interactuar con la web de manera autónoma

Notipress.- OpenAI presentó Operator, una herramienta innovadora dentro de su plataforma ChatGPT que promete revolucionar la interacción con la web mediante inteligencia artificial generativa. Operator se posiciona como un navegador inteligente, capaz de realizar tareas autónomas en sitios web al comprender e interactuar con sus elementos visuales, como botones, enlaces, cajas de texto y menús desplegables, sin depender de integraciones API personalizadas.

Según OpenAI, Operator es “un agente experimental diseñado para realizar tareas en la web por ti. Usando su propio navegador, puede observar, escribir, hacer clic y desplazarse por una página web”. Este avance se basa en el modelo Computer-Using Agent (CUA), que combina la visión computacional de GPT-4o con razonamiento avanzado basado en aprendizaje por refuerzo, permitiendo a la IA interactuar directamente con interfaces gráficas de usuario (GUI).

Entre las capacidades destacadas de Operator se encuentran la posibilidad de completar formularios, realizar compras en línea, ordenar alimentos o incluso crear memes. Estas tareas se llevan a cabo al “ver” la página web mediante capturas de pantalla y “actuar” utilizando acciones de mouse y teclado. Además, si encuentra obstáculos o comete errores, Operator puede autocorregirse o devolver el control al usuario, ofreciendo una experiencia colaborativa.

Operator frente a una competencia creciente

Aunque OpenAI reconoce que Operator está en una etapa inicial, esta tecnología establece nuevos estándares en pruebas clave como WebArena y WebVoyager, destacándose por su capacidad de interactuar con herramientas y sitios web que los humanos usan a diario. Esto no solo permite ahorrar tiempo en tareas repetitivas, sino que también amplía las oportunidades para empresas que buscan optimizar sus servicios con IA. De hecho, OpenAI ya colabora con compañías como DoorDash, Instacart, Uber y OpenTable para garantizar la compatibilidad con sus plataformas.

Sin embargo, Operator no es el único actor en este ámbito. Soluciones como Claude 3.5 Sonnet, de Anthropic, y el proyecto Gemini de Google, buscan ofrecer capacidades similares. Incluso dispositivos como Rabbit R1 intentaron implementar esta idea en el pasado, aunque sin éxito. No obstante, Operator tiene la ventaja de estar respaldado por ChatGPT, la plataforma de IA generativa más popular hasta la fecha.

Por el momento, la herramienta estará disponible exclusivamente para los usuarios Pro de Estados Unidos, quienes pagan 200 dólares al mes por este nivel de suscripción. OpenAI planea expandir su alcance gradualmente, llevándola posteriormente a los planes Plus, Team y Enterprise.

]]>
253406
El Pentágono y los desarrolladores de IA buscan un equilibrio ético en su colaboración https://www.chanboox.com/2025/01/19/el-pentagono-y-los-desarrolladores-de-ia-buscan-un-equilibrio-etico-en-su-colaboracion/ Mon, 20 Jan 2025 00:00:37 +0000 https://www.chanboox.com/?p=252904

Empresas como OpenAI, Anthropic y Meta exploran cómo implementar IA sin violar sus políticas de uso ético

Notipress.- El Departamento de Defensa de Estados Unidos está integrando herramientas de inteligencia artificial (IA) generativa para mejorar su capacidad de identificar y evaluar amenazas, pero mantiene una postura firme en evitar que estas tecnologías se utilicen para causar daño directo a los humanos. Según la Dra. Radha Plumb, directora digital y de inteligencia artificial del Pentágono, estas herramientas están ayudando en la planificación y estrategia dentro de la “cadena de eliminación”, un proceso militar que incluye la identificación, seguimiento y neutralización de amenazas.

Empresas como OpenAI, Anthropic y Meta han flexibilizado sus políticas para permitir el uso de sus modelos en defensa e inteligencia, aunque con restricciones que prohíben su uso directo en sistemas letales. Según Plumb, el Pentágono ha sido claro en que las decisiones de fuerza letal siempre incluirán supervisión humana. “Como cuestión de confiabilidad y ética, siempre tendremos humanos involucrados en la decisión de emplear la fuerza”, afirmó.

Anthropic, por ejemplo, prohíbe explícitamente el uso de sus modelos para crear o modificar sistemas diseñados para causar daño. Su CEO, Dario Amodei, enfatizó la necesidad de un enfoque equilibrado: “Estamos tratando de buscar un punto intermedio, de hacer las cosas de manera responsable”.

La IA generativa ha demostrado ser útil para explorar escenarios estratégicos y opciones de respuesta en contextos de amenaza. Plumb destacó que estas herramientas permiten a los comandantes analizar múltiples posibilidades y tomar decisiones más informadas. Sin embargo, aún persisten debates sobre la autonomía de estos sistemas, especialmente en aplicaciones militares.

El uso de IA en la defensa ha generado preocupación entre empleados de empresas tecnológicas y expertos en ética. En contraste con protestas anteriores, como las relacionadas con el “Proyecto Nimbus” de Google y Amazon, la comunidad de IA ha mostrado una respuesta más moderada. Investigadores como Evan Hubinger de Anthropic sostienen que colaborar con el gobierno es inevitable y necesario para garantizar un uso responsable de la IA.

A medida que la tecnología avanza, el Pentágono y los desarrolladores de IA buscan mantener un equilibrio entre aprovechar las capacidades de la IA y respetar principios éticos. Aunque las herramientas actuales no actúan de manera completamente autónoma, su implementación en defensa plantea desafíos continuos sobre cómo gestionar la colaboración entre humanos y máquinas en decisiones críticas.

]]>
252904
Google incorpora IA gratuita en Workspace y aumenta sus precios mensuales https://www.chanboox.com/2025/01/15/google-incorpora-ia-gratuita-en-workspace-y-aumenta-sus-precios-mensuales/ Thu, 16 Jan 2025 00:32:21 +0000 https://www.chanboox.com/?p=252558

Eliminan el recargo por sus funciones de inteligencia artificial en Workspace, pero suben el costo mensual de sus planes básicos

Notipress.- Google anunció que sus herramientas avanzadas de inteligencia artificial (IA) ahora estarán disponibles gratuitamente en todas las aplicaciones de Workspace, como Gmail, Docs y Meet. Hasta el momento, estas funciones estaban reservadas para usuarios del plan Gemini Business. Este plan tenía un costo adicional de 20 dólares mensuales por usuario. A partir de esta semana, cualquier suscriptor de Workspace podrá utilizar estas herramientas de IA sin costo adicional. Esta estrategia busca reforzar su competitividad frente a Microsoft y OpenAI, empresas que también integran IA en sus soluciones de oficina.

Pese a la eliminación del recargo por IA, Google incrementará el precio de los planes mensuales de Workspace en aproximadamente 2 dólares por usuario. Según explicó Jerry Dischler, presidente de aplicaciones en la nube de Google, el precio base por suscripción subirá de 12 a 14 dólares al mes. Dischler aclaró que estas cifras pueden variar según los contratos específicos de cada empresa, los cuales suelen ser más complejos.

Las funciones de inteligencia artificial disponibles incluyen resúmenes automáticos de correos electrónicos en Gmail, generación de plantillas en Sheets y asistentes de notas automáticas en Meet. Además, los usuarios tendrán acceso al bot de IA Gemini, capaz de realizar tareas avanzadas como búsqueda de información y gestión de documentos personales. Esta tecnología promete agilizar significativamente el trabajo diario de los usuarios al automatizar tareas repetitivas y ofrecer sugerencias inteligentes.

“La mayoría de las veces, cuando hablamos con empresas que usan IA, su mayor impedimento son las razones de costo”, afirmó Dischler. “Es por eso que se lanzan con tanta cautela. Piensan: ‘Vaya, esto es mucho dinero, vamos a demostrar el valor’. Bien, ahora tienes la IA. Tienes el valor”. El directivo también señaló que Google planea lanzar nuevas herramientas y funcionalidades en los próximos meses para seguir mejorando su oferta.

El movimiento de Google se produce en un contexto de intensa competencia por liderar el mercado de soluciones de oficina basadas en IA. Microsoft, uno de sus principales rivales, anunció en noviembre que su producto Copilot Pro dejaría de ser una actualización paga de 20 dólares al mes. La compañía incluyó estas funciones avanzadas en las suscripciones estándar de Microsoft 365, aunque por ahora la medida solo afecta a los planes Personal y Familiar en algunas regiones específicas. Ambas empresas apuestan a que la oferta gratuita de estas herramientas avanzadas ayudará a atraer y retener más usuarios.

]]>
252558
Google DeepMind crea un equipo de IA para simular el mundo físico https://www.chanboox.com/2025/01/11/google-deepmind-crea-un-equipo-de-ia-para-simular-el-mundo-fisico/ Sun, 12 Jan 2025 03:09:11 +0000 https://www.chanboox.com/?p=252204

Desarrollarán modelos generativos avanzados para crear simulaciones realistas y entornos interactivos en tiempo real

Notipress.- La compañía estadounidense comenzó a formar un nuevo equipo de investigación dentro de su división Google DeepMind, con el objetivo de desarrollar modelos de inteligencia artificial (IA) avanzados que puedan simular entornos físicos complejos. El proyecto estará liderado por Tim Brooks, quien previamente trabajó como uno de los líderes del generador de video de OpenAI. Brooks se unió a Google DeepMind en octubre de 2024 y anunció el 6 de enero de 2025 la creación del equipo a través de una publicación en la red social X.

“DeepMind tiene planes ambiciosos para crear modelos generativos masivos que simulen el mundo”, afirmó Brooks. Además, el líder de este nuevo equipo señaló que actualmente se están contratando profesionales para sumarse a la misión.

De acuerdo con las ofertas de empleo compartidas por Brooks, el equipo de modelado colaborará estrechamente con otros proyectos clave de Google, como Gemini, Veo y Genie. Gemini es una serie de modelos multimodales de IA destinados a tareas avanzadas, como el análisis de imágenes y la generación de texto. Por su parte, Veo es el modelo de generación de video que Google desarrolló internamente. Genie, en cambio, se centra en la creación de mundos 3D interactivos y jugables, y su última versión, fue diseñada para generar una gran variedad de entornos virtuales en tiempo real.

Asimismo, la descripción del proyecto sugiere que este equipo buscará crear herramientas de generación interactiva sobre los modelos existentes y escalar sus capacidades al máximo nivel computacional. “Creemos que la ampliación del entrenamiento de IA en vídeo y datos multimodales es un paso fundamental hacia la inteligencia artificial general”, se detalla en las publicaciones de empleo.

El interés por los modelos generativos de simulación no es exclusivo de Google ya que varias empresas emergentes y grandes corporaciones tecnológicas están incursionando en este campo. Entre ellas, destaca World Labs, liderada por Fei-Fei Lee, una influyente investigadora de IA, así como Decart y Odyssey, dos startups las cuales buscan desarrollar tecnologías similares para medios interactivos y simulaciones. Estas compañías creen que los modelos mundiales podrían utilizarse en el futuro para producir videojuegos, películas y entornos de entrenamiento hiperrealistas para robots.

A pesar de los avances, la expansión de estas tecnologías genera preocupación en el sector creativo. Un informe reciente de Wired reveló que algunas empresas de videojuegos, como Activision Blizzard, están empleando IA para reducir costos operativos y aumentar la eficiencia, resultando en el despido de decenas de trabajadores. De manera similar, un estudio encargado por el Animation Guild, estima que más de 100 mil empleos relacionados con el cine, la televisión y la animación en Estados Unidos podrían verse afectados por el uso de la IA en 2026.

Otro de los temas controvertidos es el uso de contenido protegido por derechos de autor en el entrenamiento de estos modelos. Según informes, algunas empresas utilizaron clips de videojuegos sin licencia, lo cual podría derivar en problemas legales. Si bien Google, como propietario de YouTube, declaró que puede emplear los videos de la plataforma para entrenar sus modelos de IA conforme a sus términos de servicio, no especificó cuáles contenidos se están utilizando en estos procesos.

]]>
252204
¿Qué depara el futuro a la IA en 2025? Expertos católicos opinan https://www.chanboox.com/2025/01/08/que-depara-el-futuro-a-la-ia-en-2025-expertos-catolicos-opinan/ Thu, 09 Jan 2025 00:01:43 +0000 https://www.chanboox.com/?p=251919

7 de enero de 2025. Mientras la humanidad continúa debatiendo sus usos, méritos, peligros, oportunidades y ética, el desarrollo y uso de la inteligencia artificial (IA) continúa a buen ritmo, lo que hace difícil para cualquiera adivinar cómo podría moldear el mundo en 2025. Se dice que algunos de los sistemas de IA más grandes, incluidos los creados por OpenAI, ya están cerca de lograr la inteligencia artificial general (AGI, por sus siglas en inglés), que esencialmente sería casi tan inteligente como los humanos, y sus creadores están lejos de terminar.

La Iglesia Católica no ha sido un observador pasivo de la revolución de la IA; está moldeando activamente su desarrollo. Al combinar tecnología de vanguardia con la sabiduría de la Iglesia, los católicos están trabajando para intentar garantizar que la IA sirva a la humanidad y promueva el bien común. En particular, el propio Papa Francisco ha hablado con frecuencia sobre la importancia de desarrollar y utilizar la IA de manera ética.

Entonces, ¿cómo podrían los católicos usar y dar forma a la IA en el próximo año, y podemos predecir hacia dónde se dirigirá la “IA católica” a continuación?

CNA —agencia en inglés de EWTN News— habló con varios destacados católicos expertos en inteligencia artificial para ver hacia dónde podría dirigirse la tecnología en 2025: el P. Michael Baggot LC, profesor de bioética en el Pontificio Ateneo Regina Apostolorum en Roma; el P. Philip Larrey, profesor de Filosofía en Boston College que anteriormente se desempeñó como decano del departamento de Filosofía en la Pontificia Universidad Lateranense en Roma; y Matthew Harvey Sanders, empresario y fundador de Longbeard, una empresa que está desarrollando varias herramientas de inteligencia artificial de alto perfil para aplicaciones católicas.

¿El fin del mundo tal como lo conocemos?

Es el elefante en la habitación, así que bien podemos abordarlo primero: ¿La IA tomará un giro siniestro (inserte aquí una trama de película de ciencia ficción de pesadilla) y nos destruirá a todos en 2025?

La pregunta puede sonar simplista, pero no es un escenario tan descabellado como se podría pensar, al menos según el científico informático Geoffrey Hinton, a menudo descrito como el “padrino” de la IA, quien recientemente provocó titulares frenéticos en todo el mundo cuando opinó que hay una probabilidad del “10% al 20%” de que la IA conduzca a la extinción humana en los próximos 30 años.

Por su parte, el P. Larrey dijo que ha pensado mucho sobre esta posibilidad de extinción humana por parte de la IA y dijo que se inclina a tomar en serio la evaluación de Hinton. Y, de hecho, el P. Larrey firmó una carta abierta en 2023, uniéndose a varios expertos y pioneros en IA para pedir una moratoria de seis meses en el desarrollo de sistemas de IA más potentes que los que ya se lanzaron en ese momento.

¿Cómo podría producirse esta extinción? Bueno, dijo el P. Larrey, ¿qué pasaría si una IA con malas intenciones consiguiera hacerse con códigos nucleares? ¿O decidiera engañar a humanos desprevenidos para que sinteticen y liberen un virus mortal? O, incluso sin malas intenciones, ¿qué pasaría si una IA pusiera en marcha un escenario apocalíptico por accidente o como resultado de un ataque informático por parte de actores humanos malintencionados?

Para el P. Larrey, quien ha hablado y pensado mucho sobre cómo garantizar que las IA estén imbuidas de ética, dice que una frase pronunciada por Elon Musk hace años le suena cierta: “Tenemos que asegurarnos de que las IA nos consideren una parte interesante del universo”.

Y una forma que se espera que sea efectiva para lograrlo, dijo el P. Larrey, es que los seres humanos se traten entre sí con mayor respeto y reverencia para que la IA pueda observar ese comportamiento y aprender de él.

El comportamiento humano es uno de los argumentos más sólidos que la IA puede presentar al considerar cómo debería tratar a los humanos, continuó, y si los humanos no se tratan entre sí con respeto y dignidad, las IA pueden no verlos como merecedores de una consideración especial.

Además, el P. Larrey dijo que cree que, en ausencia de una moratoria sobre el desarrollo de la IA (algo que parece poco probable en este momento), los católicos deberían seguir promoviendo el diálogo entre los especialistas en ética y los desarrolladores de IA. El sacerdote dijo que ha hablado con frecuencia con Sam Altman, director ejecutivo de OpenAI y líder en el sector, para alentarlo a priorizar el desarrollo humano en el futuro de la IA en su empresa.

“En este momento no tenemos un código ético universal ni nada sobre la IA. Creo que la Iglesia Católica puede brindar orientación hasta que tengamos uno. Creo que eso es lo que estamos tratando de hacer ahora”, dijo el P. Larrey.

“Si nos equivocamos, será demasiado tarde para corregirlo. El daño ya estará hecho”.

Conocimiento y enseñanzas católicas para todos

¿Y cuáles son algunas de las oportunidades positivas que presenta la IA para la Iglesia?

Una aplicación de la IA que ha estado creciendo a pasos agigantados —y que seguramente dará aún más pasos en 2025— es la capacidad de la IA de aprovechar y distribuir enseñanzas y conocimientos católicos de formas previamente inimaginables.

El mundo ya ha sido bendecido con herramientas como CatéGPT, un chatbot diseñado para proporcionar respuestas precisas y exhaustivas a preguntas sobre la enseñanza católica basándose en documentos autorizados. Los usuarios también han tenido éxito con herramientas de inteligencia artificial secular como NotebookLM de Google, que tiene la capacidad de generar podcasts que suenan realistas después de que los usuarios le proporcionen material de origen y se puede utilizar para destilar y explicar documentos católicos extensos, como el documento final del Sínodo de la Sinodalidad.

Pero Longbeard, la empresa dirigida por Sanders, está preparada para hacer un avance aún mayor en este ámbito en 2025. Ya ofrece Magisterium AI, un producto de inteligencia artificial generativa centrado en hacer que la enseñanza de la Iglesia y la visión católica sean más accesibles al garantizar que las respuestas generadas se basen en fuentes católicas. Y Vulgate AI, una poderosa plataforma de bibliotecas y otro producto de Longbeard, ya está permitiendo la digitalización y preservación de los fondos de las bibliotecas de las universidades católicas, haciendo que estos recursos sean útiles y accesibles para una audiencia global.

Pero Sanders dijo a CNA que su compañía tiene metas aún más altas para 2025.

El equipo de Sanders está desarrollando Ephraim, el primer modelo de lenguaje católico del mundo, que será entrenado en todo el corpus de “conocimiento católico”, una tarea más fácil de decir que de hacer, ya que una buena parte del conocimiento católico del mundo está en forma de libro y almacenado de forma segura en bibliotecas o en el Vaticano.

Sanders dijo a CNA que para marzo, la compañía espera tener un sistema robótico de última generación en funcionamiento en Roma llamado Alexandria Digitization Hub, que se encargará de escanear miles de libros y textos católicos antiguos, muchos de los cuales nunca han sido traducidos antes, y mucho menos digitalizados.

Una vez que tenga copias digitales de cada pieza de “conocimiento católico” jamás producida, completará el “entrenamiento” de Ephraim y lo usará para impulsar las herramientas de inteligencia artificial de Longbeard.

La ventaja aquí, dijo Sanders, es que la IA tendrá una base verdaderamente católica para su funcionamiento en lugar de depender de bases de IA seculares como ChatGPT, que están entrenadas en diversos conjuntos de datos con valores potencialmente conflictivos y, por lo tanto, han ingerido mucha información no católica, lo que significa que a veces muestran respuestas dudosas cuando se trata de temas católicos.

Longbeard pondrá a Ephraim a disposición de los católicos para que lo utilicen —para crear aplicaciones, productos y otras herramientas— a través de su API (interfaz de programación de aplicaciones), dijo Sanders, lo que significa que grandes cantidades de documentos y libros de enseñanza católica —80.000 hasta ahora, y muchos más por venir— serán accesibles para cualquier persona con una conexión a Internet y estarán disponibles para que los católicos los utilicen de formas nuevas y creativas.

“Cualquier tipo de ministerio u organización católica que busque aprovechar la IA, pero que quiera asegurarse de que la IA sea fiel, podrá realmente construir sobre la base de nosotros”, explicó.

Agentes de IA: Ayudan a sacerdotes, educadores católicos y más

Una aplicación muy publicitada de la IA en el mundo secular es la llegada de agentes de IA: aplicaciones a las que los usuarios pueden recurrir para realizar tareas como pedir comida, reservar viajes y más.

Sanders dijo que la compañía espera que en el nuevo año los católicos puedan utilizar las plataformas de Magisterium y Vulgate para crear agentes de IA útiles que puedan realizar tareas para servir a la Iglesia.

Una aplicación de oración podría crear un agente de inteligencia artificial que los usuarios podrían usar para buscar información sobre un santo mencionado en una sesión de oración, por ejemplo. O un profesor podría usarlo para crear una lección personalizada o un plan de tutoría para un estudiante, convirtiendo al agente en un “socio activo en el proceso de hacer teología”.

“Lo que estamos tratando de hacer es brindar a los católicos, como maestros y sacerdotes, acceso a herramientas impulsadas por IA, básicamente para ayudarlos a acelerar el trabajo que están haciendo, ya sea preparar una homilía o preparar una lección para estudiantes, etc.”, dijo Sanders.

Por supuesto, hay un límite a lo que un no humano puede hacer cuando se trata de ayudar a los católicos, especialmente al clero: naturalmente, las IA nunca podrán escuchar confesiones, por ejemplo, o celebrar la Misa o cualquier otro sacramento católico.

Pero quienes son optimistas respecto de la IA tienen ideas diferentes sobre hasta qué punto puede o debe involucrarse a esta en la vida sacramental de la Iglesia. Cabe destacar que una exhibición de arte impulsada por IA en Suiza causó revuelo en noviembre, cuando numerosos informes de prensa anunciaron que un nuevo “Jesús” artificialmente inteligente había comenzado a confesar a la gente.

A pesar de estar colocada en el confesionario, más tarde quedó claro que la instalación de IA estaba destinada a conversaciones, no a confesiones (que sólo pueden ser realizadas por un sacerdote u obispo, y nunca en un entorno virtual). Sin embargo, un teólogo de la parroquia suiza comentó que cree que la IA puede ayudar con el lado “pastoral” de la vida católica.

Por su parte, Sanders dijo que el trabajo de su empresa consiste en “mejorar las capacidades humanas” para ayudar a la Iglesia, incluidos los sacerdotes, y no pretende reemplazar a nadie.

“Quienes entendemos la naturaleza sacramental de la Iglesia sabemos que se trata de una experiencia muy corporal. Es necesario estar físicamente allí. Por lo tanto, no hay ningún ámbito de posibilidad en el que una IA pueda ser parte de la economía sacramental. Simplemente no va a suceder”.

Las IA no son personas

Para acompañar la advertencia de no permitir que las IA se adentren demasiado en el ámbito sacramental católico, otro punto que los tres expertos enfatizaron fue la importancia de no antropomorfizar la IA; en otras palabras, tratarla como la herramienta que es y no como un reemplazo de la verdadera interacción humana.

Lamentablemente, numerosos informes sobre personas que se aferraron demasiado a las IA con apariencia humana acapararon los titulares en 2024. El más infame fue la historia de un adolescente de 14 años de Florida que desarrolló un apego poco saludable a su “novia” chatbot y luego se suicidó.

El P. Baggot enfatizó que las IA, si bien son “herramientas tremendas que pueden ponerse al servicio de la dignidad humana y el florecimiento humano”, hay motivos para preocuparse por la proliferación de “compañeros de IA cada vez más parecidos a los humanos” a los que recurren cada vez más las personas solitarias.

“La inteligencia artificial y otras tecnologías también deberían ser una ayuda y un apoyo para nuestras relaciones más importantes con Dios y el prójimo. Estas tecnologías nunca deberían intentar reemplazar o restar valor a estas relaciones clave para el florecimiento humano”, dijo el P. Baggot a CNA.

“Lamentablemente, los chatbots que se hacen pasar por amigos o incluso amantes suelen desdibujar esta importante distinción. Puede que se creen con la buena intención de aliviar la soledad, pero suelen distraer del contacto interpersonal auténtico. También pueden explotar las vulnerabilidades humanas y manipular a los humanos de formas poco saludables”.

Si bien es natural cierto reconocimiento de cualidades humanas en las máquinas, el P. Baggot señaló que es vital recordar que, a diferencia de las máquinas, los humanos no solo tienen libre albedrío sino también una capacidad única para comprender el significado y el pensamiento abstracto.

“Perdemos oportunidades preciosas de encontrar el amor de Dios a través de un encuentro humano empático cuando tenemos falsas expectativas sobre nuestras herramientas de inteligencia artificial”, dijo el P. Baggot.

“Los sistemas de IA no pueden comprender ni compartir nuestras emociones porque no son inventos humanos sensibles. A veces pueden parecer humanos e imitar emociones humanas, pero carecen de una vida consciente interior. Los sistemas de inteligencia artificial pueden proporcionar información útil sobre los pecados y las virtudes, pero no saben lo que es luchar contra la tentación y encontrar la liberación a través de la gracia”.

El P. Larrey se hizo eco de las palabras del P. Baggot al decir que es importante recordar y enfatizar que los sistemas de IA, a pesar de sus impresionantes capacidades, no entienden el significado y sólo manipulan símbolos. Se pueden utilizar para realizar ciertas tareas con gran efecto, pero hay que tener cuidado de no pensar en ellos como verdaderamente humanos: las IA no son capaces de tener un pensamiento original, sino que funcionan reconociendo patrones en sus datos de entrenamiento y aplicándolos a nuevos escenarios. Además, reiteró que, si bien una IA puede imitar emociones, en realidad no las experimenta.

ChatGPT, por ejemplo, “simula la comprensión, y cada vez lo hace mejor, pero eso no significa lo mismo que comprender”, dijo el P. Larrey.

Energía nuclear y avances médicos

El entrenamiento y uso de la IA requiere significativamente más potencia computacional –y por lo tanto más electricidad– que la computación convencional, un problema que ya está molestando a quienes se preocupan por los posibles impactos ambientales.

La reactivación de las plantas de energía nuclear específicamente para alimentar la IA fue noticia en 2024, ya que empresas como Microsoft y Amazon tomaron medidas para poner en funcionamiento plantas nucleares para alimentar sus últimos proyectos de IA que consumen mucha energía, y se esperan más proyectos nucleares de este tipo en 2025 y más allá.

Por su parte, Sanders dijo que, dado que el desarrollo de la IA tiene la posibilidad de resolver muchos problemas sociales, cree que el desarrollo de la IA debe continuar y, por lo tanto, se requiere una gran fuente de energía. La energía nuclear para la IA es probablemente una buena solución, dijo, ya que es “la forma más segura de lograr abundancia de energía a gran escala”.

Otra aplicación interesante de la IA que es relevante para la Iglesia es el campo de la atención sanitaria. El P. Baggot dijo que ve un potencial significativo para la IA en la mejora de la atención sanitaria, en particular al hacerla más predictiva, preventiva y personalizada; por ejemplo, los sistemas de IA pueden analizar imágenes médicas como radiografías, resonancias magnéticas y ecografías con mayor rapidez y precisión, y los sensores impulsados ​​por IA podrían detectar problemas médicos o indicadores preocupantes de salud mental en los usuarios.

Sin embargo, enfatizó que la IA debería ser una herramienta utilizada para mejorar el elemento humano de la atención médica, no reemplazarlo; habló de la importancia de la relación médico-paciente y la necesidad de empatía humana, que la IA no puede proporcionar.

“Estas interacciones digitales siempre deben dirigir al usuario hacia encuentros interpersonales”, dijo el P. Baggot.

Traducido y adaptado por el equipo de ACI Prensa. Publicado originalmente en CNA.

Boletín de ACI PRENSA

]]>
251919
Fable y la IA causan polémica por resúmenes anuales de libros con comentarios ofensivos https://www.chanboox.com/2025/01/04/fable-y-la-ia-causan-polemica-por-resumenes-anuales-de-libros-con-comentarios-ofensivos/ Sat, 04 Jan 2025 16:47:18 +0000 https://www.chanboox.com/?p=251554

Resúmenes de IA en Fable desatan críticas por comentarios ofensivos, obligando a la empresa a prometer cambios

Notipress.- Fable, una popular plataforma social que permite a los usuarios compartir sus lecturas, se vio envuelta en una polémica tras el lanzamiento de su función de resúmenes anuales impulsada por inteligencia artificial (IA). Esto comenzó como una propuesta divertida para resumir las lecturas del año y terminó generando malestar entre los usuarios por los comentarios inusuales y ofensivos generados por la herramienta automatizada.

La controversia se desató cuando varios usuarios compartieron sus experiencias en redes sociales. Tiana Trammell, una influencer literaria, recibió un resumen que cerraba con la frase: “No te olvides de buscar ocasionalmente a algún autor blanco, ¿de acuerdo?”. Trammell expresó su sorpresa y explicó que tras publicar su experiencia en Threads recibió “múltiples mensajes” de personas las cuales habían pasado por situaciones similares. Según Trammell, algunos de los resúmenes contenían comentarios inapropiados sobre “discapacidad y orientación sexual”.

El desarrollo de esta función estuvo a cargo de un modelo de IA que utilizaba la API de OpenAI para generar resúmenes personalizados de los hábitos de lectura de los usuarios durante los últimos 12 meses. Si bien este tipo de funciones anuales es cada vez más popular en distintas aplicaciones, como el conocido Spotify Wrapped, los resultados de Fable adoptaron un tono que varios usuarios consideraron grosero o sesgado.

Frente a la creciente ola de críticas, la empresa emitió disculpas en varias redes sociales, incluyendo un video publicado en Instagram y Threads. En el mensaje, un ejecutivo de Fable afirmó: “Lamentamos profundamente el daño causado por algunos de nuestros resúmenes de lectores esta semana”. Además, la directora de comunidad de Fable, Kimberly Marsh Allee, explicó a Wired que se están realizando ajustes en el sistema. “Por el momento, hemos eliminado la parte del modelo que burla al lector y, en su lugar, el modelo simplemente resume el gusto del usuario en libros”, indicó Marsh Allee.

A pesar de las disculpas, algunos usuarios consideran que las medidas adoptadas son insuficientes. La escritora de fantasía y romance AR Kaufer señaló que Fable debería “eliminar la IA por completo” y ofrecer una disculpa más contundente. Trammell, quien decidió eliminar su cuenta tras el incidente, propuso: “La medida adecuada sería desactivar la función y realizar pruebas internas rigurosas, incorporando las medidas de seguridad recientemente implementadas”.

El debate sobre los sesgos de los algoritmos de IA resurgió tras este incidente. Groves, otro usuario afectado, afirmó: “Estos algoritmos están diseñados por programadores que viven en una sociedad con prejuicios, por lo que, por supuesto, el aprendizaje automático también tendrá prejuicios”. Según Wired, no es la primera vez que una herramienta de IA genera este tipo de controversias. En 2022, se descubrió que el generador de imágenes Dall-E mostraba personas no blancas cuando se solicitaban imágenes de prisioneros y, en cambio, solo mostraba personas blancas cuando se pedían imágenes de directores ejecutivos.

Como respuesta final, Fable tomó la decisión de eliminar los resúmenes anuales de lectura generados por IA y desactivar otras funciones similares. Sin embargo, usuarios como Groves consideran que lo más prudente sería evitar estas herramientas hasta que puedan garantizar resultados libres de sesgos: “Prefiero prescindir de ellos que enfrentarme a resultados de inteligencia artificial no controlados que podrían resultar ofensivos”, sentenció Groves.

]]>
251554
Google advierte sobre un 2025 crucial para Gemini en la carrera de la IA https://www.chanboox.com/2024/12/29/google-advierte-sobre-un-2025-crucial-para-gemini-en-la-carrera-de-la-ia/ Sun, 29 Dec 2024 17:56:48 +0000 https://www.chanboox.com/?p=251118

Competencia en IA y presión regulatoria marcan retos clave para 2025

Notipress.- Google se enfrenta a un momento crítico en 2025, según declaraciones del CEO Sundar Pichai durante una reunión estratégica celebrada el 18 de diciembre en Mountain View, California. La información surge de un audio de la reunión al que accedió CNBC. El directivo destacó la necesidad de actuar con rapidez ante la creciente competencia, avances disruptivos en inteligencia artificial y presión regulatoria global. El foco se hizo en Gemini, la inteligencia artificial que aún no alcanza la madurez de su rival, ChatGPT.

“Creo que 2025 será crucial. Es realmente importante que internalicemos la urgencia de este momento y avancemos más rápido como empresa. Las apuestas son altas”, señaló Pichai. Sin embargo, Google declinó a una solicitud de información de CNBC.

2024 ha sido uno de los más complejos para Google desde que salió a bolsa hace dos décadas. A pesar del crecimiento sólido en áreas como la publicidad de búsqueda y la nube, la compañía enfrenta una competencia cada vez más intensa en sus mercados principales y numerosos desafíos regulatorios.

En agosto, un juez federal dictaminó que Google mantiene un monopolio ilegal en el mercado de búsqueda. Además, el Departamento de Justicia solicitó en noviembre la separación de la unidad de Chrome de la compañía. Un juicio adicional sobre el dominio ilegal de tecnología publicitaria concluyó en septiembre y está pendiente de resolución judicial.

Asimismo, en Reino Unido, el organismo de competencia emitió objeciones preliminares relacionadas con las prácticas publicitarias de Google, señalando un posible impacto negativo en la competencia.

Durante la reunión citada por el medio estadounidense, Pichai enfatizó la importancia de mantenerse enfocados en el desarrollo y la implementación de tecnología que resuelva problemas reales de los usuarios, especialmente en inteligencia artificial. “En 2025, necesitamos enfocarnos implacablemente en desbloquear los beneficios de esta tecnología”, dijo el CEO.

Algunos empleados asistieron presencialmente al encuentro en la sede central de Mountain View, mientras que otros participaron de manera virtual. En un ambiente distendido, los líderes, vestidos con suéteres festivos, intentaron motivar a los equipos para enfrentar los retos que se avecinan.

Pichai reconoció que Google enfrenta un escrutinio global debido a su tamaño y éxito, pero instó a sus equipos a no distraerse. “Es parte de una tendencia más amplia donde la tecnología impacta a la sociedad a gran escala”, comentó.

Con 2025 en el horizonte, Google busca equilibrar su crecimiento e innovación con un cumplimiento estricto de las normativas, en un panorama tecnológico y regulatorio en constante evolución. En particular, Gemini se pone a prueba ante la creciente evolución de OpenAI con ChatGPT.

]]>
251118