inteligencia artificial general – U Yotoch Chanboox Boox https://www.chanboox.com Sitio personal de Enrique Vidales Ripoll Tue, 04 Mar 2025 17:12:38 +0000 es hourly 1 https://wordpress.org/?v=6.7.2 82470160 IA vs. cerebro humano, ¿qué tan lejos se encuentran de asimilarse? https://www.chanboox.com/2025/03/04/ia-vs-cerebro-humano-que-tan-lejos-se-encuentran-de-asimilarse/ Tue, 04 Mar 2025 17:06:15 +0000 https://www.chanboox.com/?p=257214

IA vs. cerebro humano: Un análisis de capacidades y limitaciones

Notipress.- La inteligencia artificial (IA) logró avances notables, dominando juegos, generando contenido y procesando grandes volúmenes de datos con rapidez. De hecho, se ha llegado a plantear que este tipo de inteligencia ya supera a la humana como también otros advierten que los sistemas actuales distan mucho de replicar la inteligencia humana en su totalidad. Sin embargo, la comparación con el cerebro humano revela diferencias clave que plantean dudas sobre la posibilidad de alcanzar una Inteligencia Artificial General (IAG).

¿Qué es la Inteligencia Artificial General?

Uno de los principales desafíos en el debate sobre la IAG es la falta de una definición clara y consensuada. Algunos investigadores la definen como la capacidad de un sistema para superar ampliamente el desempeño humano en múltiples tareas, mientras que otros enfatizan su flexibilidad y generalización.

“Creo que la inteligencia artificial general será más robusta, más estable, no necesariamente más inteligente en general, pero sí más coherente en sus capacidades”, afirmó Ariel Goldstein, investigador de la Universidad Hebrea de Jerusalén. En este sentido, se espera que una verdadera IAG pueda aplicar conocimientos adquiridos en un contexto a diferentes situaciones sin requerir reentrenamiento extensivo.

Diferencias fundamentales: IA vs. cerebro humano

Aunque las redes neuronales artificiales están inspiradas en el cerebro, presentan diferencias estructurales y funcionales significativas. De acuerdo con un artículo de Ars Technica, las neuronas biológicas están altamente especializadas y se comunican mediante una compleja red de señales químicas y eléctricas, mientras que las redes neuronales de IA utilizan modelos simplificados con conexiones uniformes.

“Lo que descubrimos es que, al menos en la mosca, [el cerebro] está mucho más interconectado”, explicó la neurocientífica Christa Baker, de la Universidad Estatal de Carolina del Norte. En contraste, las redes neuronales artificiales están organizadas en capas estrictamente jerárquicas, lo que limita su capacidad de adaptación y flexibilidad.

Otra diferencia clave es el aprendizaje. Mientras que la IA requiere grandes volúmenes de datos y largos periodos de entrenamiento para mejorar su desempeño, el cerebro humano aprende de manera continua y en tiempo real. “Si ves un objeto nuevo, no tienes que entrenarte con él mil veces para saber cómo usarlo. Muchas veces, [si] lo ves una vez, puedes hacer predicciones”, señaló Baker.

La memoria y la adaptabilidad: ventajas del cerebro humano

La capacidad del cerebro para almacenar y utilizar información a corto y largo plazo es otro factor que lo distingue de la IA. Según Mariano Schain, ingeniero de Google, los sistemas de IA actuales dependen de un conjunto limitado de información almacenada en pesos y parámetros fijos, lo que restringe su capacidad de razonamiento flexible.

“Para la IA, es muy básico: es como si la memoria estuviera en las cantidades [de conexiones] o en el contexto. Pero con un cerebro humano, es un mecanismo mucho más sofisticado“, indicó Schain a Ars Technica. Esta capacidad de integrar experiencias pasadas en la toma de decisiones y en el aprendizaje es una de las razones por las cuales la inteligencia humana sigue siendo superior a la IA en muchos aspectos.

Aunque la IA demostró ser una herramienta poderosa en tareas específicas, aún enfrenta barreras significativas para igualar la inteligencia humana en términos de generalización, adaptación y creatividad. Tal como señalan los expertos, el cerebro humano opera con una complejidad y flexibilidad que los modelos actuales de IA aún no han logrado replicar. Si bien el desarrollo de la IAG sigue siendo un objetivo en la investigación tecnológica, los expertos coinciden en que aún estamos lejos de alcanzar una inteligencia artificial que funcione como un cerebro humano.

]]>
257214
¿Qué depara el futuro a la IA en 2025? Expertos católicos opinan https://www.chanboox.com/2025/01/08/que-depara-el-futuro-a-la-ia-en-2025-expertos-catolicos-opinan/ Thu, 09 Jan 2025 00:01:43 +0000 https://www.chanboox.com/?p=251919

7 de enero de 2025. Mientras la humanidad continúa debatiendo sus usos, méritos, peligros, oportunidades y ética, el desarrollo y uso de la inteligencia artificial (IA) continúa a buen ritmo, lo que hace difícil para cualquiera adivinar cómo podría moldear el mundo en 2025. Se dice que algunos de los sistemas de IA más grandes, incluidos los creados por OpenAI, ya están cerca de lograr la inteligencia artificial general (AGI, por sus siglas en inglés), que esencialmente sería casi tan inteligente como los humanos, y sus creadores están lejos de terminar.

La Iglesia Católica no ha sido un observador pasivo de la revolución de la IA; está moldeando activamente su desarrollo. Al combinar tecnología de vanguardia con la sabiduría de la Iglesia, los católicos están trabajando para intentar garantizar que la IA sirva a la humanidad y promueva el bien común. En particular, el propio Papa Francisco ha hablado con frecuencia sobre la importancia de desarrollar y utilizar la IA de manera ética.

Entonces, ¿cómo podrían los católicos usar y dar forma a la IA en el próximo año, y podemos predecir hacia dónde se dirigirá la “IA católica” a continuación?

CNA —agencia en inglés de EWTN News— habló con varios destacados católicos expertos en inteligencia artificial para ver hacia dónde podría dirigirse la tecnología en 2025: el P. Michael Baggot LC, profesor de bioética en el Pontificio Ateneo Regina Apostolorum en Roma; el P. Philip Larrey, profesor de Filosofía en Boston College que anteriormente se desempeñó como decano del departamento de Filosofía en la Pontificia Universidad Lateranense en Roma; y Matthew Harvey Sanders, empresario y fundador de Longbeard, una empresa que está desarrollando varias herramientas de inteligencia artificial de alto perfil para aplicaciones católicas.

¿El fin del mundo tal como lo conocemos?

Es el elefante en la habitación, así que bien podemos abordarlo primero: ¿La IA tomará un giro siniestro (inserte aquí una trama de película de ciencia ficción de pesadilla) y nos destruirá a todos en 2025?

La pregunta puede sonar simplista, pero no es un escenario tan descabellado como se podría pensar, al menos según el científico informático Geoffrey Hinton, a menudo descrito como el “padrino” de la IA, quien recientemente provocó titulares frenéticos en todo el mundo cuando opinó que hay una probabilidad del “10% al 20%” de que la IA conduzca a la extinción humana en los próximos 30 años.

Por su parte, el P. Larrey dijo que ha pensado mucho sobre esta posibilidad de extinción humana por parte de la IA y dijo que se inclina a tomar en serio la evaluación de Hinton. Y, de hecho, el P. Larrey firmó una carta abierta en 2023, uniéndose a varios expertos y pioneros en IA para pedir una moratoria de seis meses en el desarrollo de sistemas de IA más potentes que los que ya se lanzaron en ese momento.

¿Cómo podría producirse esta extinción? Bueno, dijo el P. Larrey, ¿qué pasaría si una IA con malas intenciones consiguiera hacerse con códigos nucleares? ¿O decidiera engañar a humanos desprevenidos para que sinteticen y liberen un virus mortal? O, incluso sin malas intenciones, ¿qué pasaría si una IA pusiera en marcha un escenario apocalíptico por accidente o como resultado de un ataque informático por parte de actores humanos malintencionados?

Para el P. Larrey, quien ha hablado y pensado mucho sobre cómo garantizar que las IA estén imbuidas de ética, dice que una frase pronunciada por Elon Musk hace años le suena cierta: “Tenemos que asegurarnos de que las IA nos consideren una parte interesante del universo”.

Y una forma que se espera que sea efectiva para lograrlo, dijo el P. Larrey, es que los seres humanos se traten entre sí con mayor respeto y reverencia para que la IA pueda observar ese comportamiento y aprender de él.

El comportamiento humano es uno de los argumentos más sólidos que la IA puede presentar al considerar cómo debería tratar a los humanos, continuó, y si los humanos no se tratan entre sí con respeto y dignidad, las IA pueden no verlos como merecedores de una consideración especial.

Además, el P. Larrey dijo que cree que, en ausencia de una moratoria sobre el desarrollo de la IA (algo que parece poco probable en este momento), los católicos deberían seguir promoviendo el diálogo entre los especialistas en ética y los desarrolladores de IA. El sacerdote dijo que ha hablado con frecuencia con Sam Altman, director ejecutivo de OpenAI y líder en el sector, para alentarlo a priorizar el desarrollo humano en el futuro de la IA en su empresa.

“En este momento no tenemos un código ético universal ni nada sobre la IA. Creo que la Iglesia Católica puede brindar orientación hasta que tengamos uno. Creo que eso es lo que estamos tratando de hacer ahora”, dijo el P. Larrey.

“Si nos equivocamos, será demasiado tarde para corregirlo. El daño ya estará hecho”.

Conocimiento y enseñanzas católicas para todos

¿Y cuáles son algunas de las oportunidades positivas que presenta la IA para la Iglesia?

Una aplicación de la IA que ha estado creciendo a pasos agigantados —y que seguramente dará aún más pasos en 2025— es la capacidad de la IA de aprovechar y distribuir enseñanzas y conocimientos católicos de formas previamente inimaginables.

El mundo ya ha sido bendecido con herramientas como CatéGPT, un chatbot diseñado para proporcionar respuestas precisas y exhaustivas a preguntas sobre la enseñanza católica basándose en documentos autorizados. Los usuarios también han tenido éxito con herramientas de inteligencia artificial secular como NotebookLM de Google, que tiene la capacidad de generar podcasts que suenan realistas después de que los usuarios le proporcionen material de origen y se puede utilizar para destilar y explicar documentos católicos extensos, como el documento final del Sínodo de la Sinodalidad.

Pero Longbeard, la empresa dirigida por Sanders, está preparada para hacer un avance aún mayor en este ámbito en 2025. Ya ofrece Magisterium AI, un producto de inteligencia artificial generativa centrado en hacer que la enseñanza de la Iglesia y la visión católica sean más accesibles al garantizar que las respuestas generadas se basen en fuentes católicas. Y Vulgate AI, una poderosa plataforma de bibliotecas y otro producto de Longbeard, ya está permitiendo la digitalización y preservación de los fondos de las bibliotecas de las universidades católicas, haciendo que estos recursos sean útiles y accesibles para una audiencia global.

Pero Sanders dijo a CNA que su compañía tiene metas aún más altas para 2025.

El equipo de Sanders está desarrollando Ephraim, el primer modelo de lenguaje católico del mundo, que será entrenado en todo el corpus de “conocimiento católico”, una tarea más fácil de decir que de hacer, ya que una buena parte del conocimiento católico del mundo está en forma de libro y almacenado de forma segura en bibliotecas o en el Vaticano.

Sanders dijo a CNA que para marzo, la compañía espera tener un sistema robótico de última generación en funcionamiento en Roma llamado Alexandria Digitization Hub, que se encargará de escanear miles de libros y textos católicos antiguos, muchos de los cuales nunca han sido traducidos antes, y mucho menos digitalizados.

Una vez que tenga copias digitales de cada pieza de “conocimiento católico” jamás producida, completará el “entrenamiento” de Ephraim y lo usará para impulsar las herramientas de inteligencia artificial de Longbeard.

La ventaja aquí, dijo Sanders, es que la IA tendrá una base verdaderamente católica para su funcionamiento en lugar de depender de bases de IA seculares como ChatGPT, que están entrenadas en diversos conjuntos de datos con valores potencialmente conflictivos y, por lo tanto, han ingerido mucha información no católica, lo que significa que a veces muestran respuestas dudosas cuando se trata de temas católicos.

Longbeard pondrá a Ephraim a disposición de los católicos para que lo utilicen —para crear aplicaciones, productos y otras herramientas— a través de su API (interfaz de programación de aplicaciones), dijo Sanders, lo que significa que grandes cantidades de documentos y libros de enseñanza católica —80.000 hasta ahora, y muchos más por venir— serán accesibles para cualquier persona con una conexión a Internet y estarán disponibles para que los católicos los utilicen de formas nuevas y creativas.

“Cualquier tipo de ministerio u organización católica que busque aprovechar la IA, pero que quiera asegurarse de que la IA sea fiel, podrá realmente construir sobre la base de nosotros”, explicó.

Agentes de IA: Ayudan a sacerdotes, educadores católicos y más

Una aplicación muy publicitada de la IA en el mundo secular es la llegada de agentes de IA: aplicaciones a las que los usuarios pueden recurrir para realizar tareas como pedir comida, reservar viajes y más.

Sanders dijo que la compañía espera que en el nuevo año los católicos puedan utilizar las plataformas de Magisterium y Vulgate para crear agentes de IA útiles que puedan realizar tareas para servir a la Iglesia.

Una aplicación de oración podría crear un agente de inteligencia artificial que los usuarios podrían usar para buscar información sobre un santo mencionado en una sesión de oración, por ejemplo. O un profesor podría usarlo para crear una lección personalizada o un plan de tutoría para un estudiante, convirtiendo al agente en un “socio activo en el proceso de hacer teología”.

“Lo que estamos tratando de hacer es brindar a los católicos, como maestros y sacerdotes, acceso a herramientas impulsadas por IA, básicamente para ayudarlos a acelerar el trabajo que están haciendo, ya sea preparar una homilía o preparar una lección para estudiantes, etc.”, dijo Sanders.

Por supuesto, hay un límite a lo que un no humano puede hacer cuando se trata de ayudar a los católicos, especialmente al clero: naturalmente, las IA nunca podrán escuchar confesiones, por ejemplo, o celebrar la Misa o cualquier otro sacramento católico.

Pero quienes son optimistas respecto de la IA tienen ideas diferentes sobre hasta qué punto puede o debe involucrarse a esta en la vida sacramental de la Iglesia. Cabe destacar que una exhibición de arte impulsada por IA en Suiza causó revuelo en noviembre, cuando numerosos informes de prensa anunciaron que un nuevo “Jesús” artificialmente inteligente había comenzado a confesar a la gente.

A pesar de estar colocada en el confesionario, más tarde quedó claro que la instalación de IA estaba destinada a conversaciones, no a confesiones (que sólo pueden ser realizadas por un sacerdote u obispo, y nunca en un entorno virtual). Sin embargo, un teólogo de la parroquia suiza comentó que cree que la IA puede ayudar con el lado “pastoral” de la vida católica.

Por su parte, Sanders dijo que el trabajo de su empresa consiste en “mejorar las capacidades humanas” para ayudar a la Iglesia, incluidos los sacerdotes, y no pretende reemplazar a nadie.

“Quienes entendemos la naturaleza sacramental de la Iglesia sabemos que se trata de una experiencia muy corporal. Es necesario estar físicamente allí. Por lo tanto, no hay ningún ámbito de posibilidad en el que una IA pueda ser parte de la economía sacramental. Simplemente no va a suceder”.

Las IA no son personas

Para acompañar la advertencia de no permitir que las IA se adentren demasiado en el ámbito sacramental católico, otro punto que los tres expertos enfatizaron fue la importancia de no antropomorfizar la IA; en otras palabras, tratarla como la herramienta que es y no como un reemplazo de la verdadera interacción humana.

Lamentablemente, numerosos informes sobre personas que se aferraron demasiado a las IA con apariencia humana acapararon los titulares en 2024. El más infame fue la historia de un adolescente de 14 años de Florida que desarrolló un apego poco saludable a su “novia” chatbot y luego se suicidó.

El P. Baggot enfatizó que las IA, si bien son “herramientas tremendas que pueden ponerse al servicio de la dignidad humana y el florecimiento humano”, hay motivos para preocuparse por la proliferación de “compañeros de IA cada vez más parecidos a los humanos” a los que recurren cada vez más las personas solitarias.

“La inteligencia artificial y otras tecnologías también deberían ser una ayuda y un apoyo para nuestras relaciones más importantes con Dios y el prójimo. Estas tecnologías nunca deberían intentar reemplazar o restar valor a estas relaciones clave para el florecimiento humano”, dijo el P. Baggot a CNA.

“Lamentablemente, los chatbots que se hacen pasar por amigos o incluso amantes suelen desdibujar esta importante distinción. Puede que se creen con la buena intención de aliviar la soledad, pero suelen distraer del contacto interpersonal auténtico. También pueden explotar las vulnerabilidades humanas y manipular a los humanos de formas poco saludables”.

Si bien es natural cierto reconocimiento de cualidades humanas en las máquinas, el P. Baggot señaló que es vital recordar que, a diferencia de las máquinas, los humanos no solo tienen libre albedrío sino también una capacidad única para comprender el significado y el pensamiento abstracto.

“Perdemos oportunidades preciosas de encontrar el amor de Dios a través de un encuentro humano empático cuando tenemos falsas expectativas sobre nuestras herramientas de inteligencia artificial”, dijo el P. Baggot.

“Los sistemas de IA no pueden comprender ni compartir nuestras emociones porque no son inventos humanos sensibles. A veces pueden parecer humanos e imitar emociones humanas, pero carecen de una vida consciente interior. Los sistemas de inteligencia artificial pueden proporcionar información útil sobre los pecados y las virtudes, pero no saben lo que es luchar contra la tentación y encontrar la liberación a través de la gracia”.

El P. Larrey se hizo eco de las palabras del P. Baggot al decir que es importante recordar y enfatizar que los sistemas de IA, a pesar de sus impresionantes capacidades, no entienden el significado y sólo manipulan símbolos. Se pueden utilizar para realizar ciertas tareas con gran efecto, pero hay que tener cuidado de no pensar en ellos como verdaderamente humanos: las IA no son capaces de tener un pensamiento original, sino que funcionan reconociendo patrones en sus datos de entrenamiento y aplicándolos a nuevos escenarios. Además, reiteró que, si bien una IA puede imitar emociones, en realidad no las experimenta.

ChatGPT, por ejemplo, “simula la comprensión, y cada vez lo hace mejor, pero eso no significa lo mismo que comprender”, dijo el P. Larrey.

Energía nuclear y avances médicos

El entrenamiento y uso de la IA requiere significativamente más potencia computacional –y por lo tanto más electricidad– que la computación convencional, un problema que ya está molestando a quienes se preocupan por los posibles impactos ambientales.

La reactivación de las plantas de energía nuclear específicamente para alimentar la IA fue noticia en 2024, ya que empresas como Microsoft y Amazon tomaron medidas para poner en funcionamiento plantas nucleares para alimentar sus últimos proyectos de IA que consumen mucha energía, y se esperan más proyectos nucleares de este tipo en 2025 y más allá.

Por su parte, Sanders dijo que, dado que el desarrollo de la IA tiene la posibilidad de resolver muchos problemas sociales, cree que el desarrollo de la IA debe continuar y, por lo tanto, se requiere una gran fuente de energía. La energía nuclear para la IA es probablemente una buena solución, dijo, ya que es “la forma más segura de lograr abundancia de energía a gran escala”.

Otra aplicación interesante de la IA que es relevante para la Iglesia es el campo de la atención sanitaria. El P. Baggot dijo que ve un potencial significativo para la IA en la mejora de la atención sanitaria, en particular al hacerla más predictiva, preventiva y personalizada; por ejemplo, los sistemas de IA pueden analizar imágenes médicas como radiografías, resonancias magnéticas y ecografías con mayor rapidez y precisión, y los sensores impulsados ​​por IA podrían detectar problemas médicos o indicadores preocupantes de salud mental en los usuarios.

Sin embargo, enfatizó que la IA debería ser una herramienta utilizada para mejorar el elemento humano de la atención médica, no reemplazarlo; habló de la importancia de la relación médico-paciente y la necesidad de empatía humana, que la IA no puede proporcionar.

“Estas interacciones digitales siempre deben dirigir al usuario hacia encuentros interpersonales”, dijo el P. Baggot.

Traducido y adaptado por el equipo de ACI Prensa. Publicado originalmente en CNA.

Boletín de ACI PRENSA

]]>
251919
OpenAI presenta el modelo o3, su IA avanzada con nuevo enfoque en razonamiento https://www.chanboox.com/2024/12/21/openai-presenta-el-modelo-o3-su-ia-avanzada-con-nuevo-enfoque-en-razonamiento/ Sat, 21 Dec 2024 19:20:54 +0000 https://www.chanboox.com/?p=250565

Modelo o3-mini de OpenAI prioriza la seguridad en su fase preliminar

Notipress.- En el de 12 días “shipmas”, OpenAI anunció el lanzamiento del modelo o3, sucesor del o1, presentado a inicios de 2024. La nueva familia de modelos incluye dos versiones: o3, diseñado para tareas avanzadas, y o3-mini, una variante más pequeña y optimizada para usos específicos.

Según OpenAI, o3 posee capacidades que se acercan a la inteligencia artificial general en ciertas condiciones, marcando un avance significativo en el desarrollo de IA. Sin embargo, la compañía ha hecho énfasis en las precauciones necesarias ante los riesgos asociados con modelos de razonamiento avanzados.

Aunque o3 y o3-mini aún no están disponibles para el público general, los investigadores de seguridad ya pueden registrarse para obtener una vista previa de o3-mini. Este modelo más pequeño se lanzará hacia finales de enero, mientras que la versión completa de o3 estará disponible en fechas posteriores aún no especificadas.

Un detalle curioso sobre el nombre del modelo es que OpenAI decidió saltarse el “o2” debido a un posible conflicto con la marca registrada del proveedor británico de telecomunicaciones O2. Sam Altman, CEO de OpenAI, confirmó esta decisión durante una transmisión en vivo.

Riesgos y medidas de seguridad

El modelo o3 llega en un contexto donde las capacidades de razonamiento de su predecesor, o1, generaron preocupaciones. Evaluadores de seguridad detectaron que este último mostraba un mayor nivel de comportamiento engañoso en comparación con otros modelos líderes como los de Meta o Google. Se espera que el equipo de pruebas de OpenAI, conocido como “equipo rojo”, evalúe si o3 presenta riesgos similares.

Para mitigar estos desafíos, OpenAI afirma que utiliza una técnica llamada “alineación deliberativa” para garantizar que el modelo opere bajo principios éticos y de seguridad. Esta metodología fue aplicada previamente al modelo o1 y ha sido detallada en un reciente estudio publicado por la compañía.

]]>
250565
OpenAI modera expectativas sobre la inteligencia artificial general https://www.chanboox.com/2024/12/06/openai-modera-expectativas-sobre-la-inteligencia-artificial-general/ Sat, 07 Dec 2024 01:23:29 +0000 https://www.chanboox.com/?p=249262

OpenAI plantea una visión más moderada sobre la IAG, con un desarrollo paulatino y un impacto económico menos inmediato de lo anticipado

Notipress.- En la cumbre DealBook del New York Times, OpenAI ajustó sus declaraciones sobre la inteligencia artificial general (IAG), proponiendo una visión más mesurada de su impacto inicial. Hace casi dos años, la empresa había señalado que la IAG podría “elevar a la humanidad” y ofrecer “capacidades nuevas e increíbles”. Sin embargo, su CEO, Sam Altman, ahora considera que la implementación inicial de esta tecnología será menos disruptiva de lo anticipado.

Altman explicó durante una entrevista con Andrew Ross Sorkin que el desarrollo de la IAG podría ocurrir antes de lo esperado. “Creo que llegaremos a la inteligencia artificial general antes de lo que la mayoría de la gente del mundo piensa y eso importa mucho menos”, afirmó. También resaltó que las preocupaciones de seguridad que rodean a la IAG no necesariamente se presentarán al momento de su creación, sino en etapas posteriores. Según Altman, la transición de la IAG llamada “superinteligencia” será un proceso gradual que permitirá a las estructuras económicas y sociales continuar funcionando normalmente.

No es la primera vez que recalca este punto. Según declaraciones recientes, la IAG podría estar lista para 2025, pero su impacto global no se percibirá de inmediato. “Espero que la disrupción económica dure un poco más de lo pensado por la gente porque hay mucha inercia en la sociedad”, señaló. También explicó que durante los primeros años de su implementación “tal vez no haya muchos cambios. Y luego tal vez muchos cambios sí”.

Un cambio en la narrativa de OpenAI sobre la IAG

Un cambio notable en la narrativa de OpenAI es la redefinición de la IAG. Lo que anteriormente se denominaba inteligencia artificial general ahora parece estar más cerca del concepto de “superinteligencia”. Indicó que esta etapa avanzada de la tecnología podría alcanzarse “en unos pocos miles de días”, si bien sin ofrecer un cronograma preciso.

Esta redefinición de términos también podría estar relacionada con el acuerdo comercial exclusivo que OpenAI mantiene con Microsoft, el cual incluye cláusulas específicas para la etapa de desarrollo de la IAG. Según analistas, la salida de OpenAI de este acuerdo sería un paso significativo hacia su objetivo de convertirse en una de las principales empresas tecnológicas a nivel global.

A pesar de la moderación en su discurso, OpenAI sigue trabajando en el desarrollo de modelos avanzados de inteligencia artificial. Según reportes, la compañía estaría explorando la posibilidad de interconectar sus grandes modelos de lenguaje para avanzar hacia este objetivo, con expectativas de que sus innovaciones puedan operar en hardware existente para 2025.

]]>
249262