Google elimina restricciones sobre armas y vigilancia en su política de IA

Notipress.- Google actualizó su política de ética en inteligencia artificial, eliminando su anterior compromiso de no utilizar esta tecnología para el desarrollo de armas o sistemas de vigilancia. En versiones anteriores de sus principios, la compañía había establecido explícitamente que evitaría aplicaciones de IA destinadas a causar daño o que fueran utilizadas para vigilancia fuera de las normas internacionales.

El cambio se produce en un contexto de rápida evolución en la industria de la inteligencia artificial. Desde el lanzamiento de ChatGPT por OpenAI en 2022, el desarrollo de la IA avanzó a un ritmo acelerado, mientras que las regulaciones y legislaciones sobre su uso ético aún no lograron seguir el mismo paso.

Nueva postura de Google ante la IA y la seguridad nacional

A través de una publicación, James Manyika, vicepresidente senior de investigación, laboratorios, tecnología y sociedad, junto con Demis Hassabis, jefe de Google DeepMind, destacaron que los marcos regulatorios en países democráticos influyeron en la evolución de la postura de Google sobre la IA. “Hay una competencia global en curso por el liderazgo en IA dentro de un panorama geopolítico cada vez más complejo. Creemos que las democracias deberían liderar el desarrollo de la IA, guiadas por valores fundamentales como la libertad, la igualdad y el respeto por los derechos humanos”, señala la publicación.

En este sentido, la compañía enfatiza la necesidad de colaboración entre gobiernos, empresas y organizaciones que compartan esos valores. La mira estaría puesta en crear una IA que proteja a las personas, impulse el crecimiento global y refuerce la seguridad nacional.

De la ética a la estrategia empresarial

La compañía presentó por primera vez sus Principios de IA en 2018, mucho antes de que la tecnología alcanzara su nivel actual de integración en la sociedad. En aquel entonces, la empresa tomó decisiones significativas para alinearse con esos valores.

Ese mismo año, Google se retiró de una oferta de US$ 10.000 millones para un contrato de computación en la nube con el Pentágono, argumentando que no podía garantizar que dicho contrato se ajustara a sus principios éticos en IA. Además, más de 4.000 empleados firmaron una petición exigiendo que Google estableciera una política clara que prohibiera el desarrollo de tecnología para la guerra. La protesta incluyó la renuncia de alrededor de una docena de empleados en desacuerdo con la postura de la empresa.

Sin embargo, la actualización reciente de los principios de IA de Google representa un cambio significativo respecto a esa posición anterior. Aunque la compañía sigue enfatizando el uso responsable de la inteligencia artificial, la eliminación de restricciones explícitas sobre armas y vigilancia podría abrir nuevas oportunidades para su colaboración con entidades gubernamentales y militares.


Espero que esta publicación sea de tu interés. Me gustaría seguir en contacto contigo. Por lo cual te dejo mis principales redes para dialogar y comentar los temas de interés para la sociedad y nosotros.

 

 

 

 

Escribe tu comentario para FacebooK