El 4 de febrero de 2025, Google dio a conocer un cambio significativo en sus principios éticos respecto al desarrollo y uso de la inteligencia artificial (IA). La compañía Google, que durante años había mantenido un compromiso firme con la responsabilidad ética en sus productos de IA, eliminó de sus directrices las prohibiciones explícitas sobre el uso de la tecnología para aplicaciones militares y de vigilancia.
Esta modificación de Google, que dejó atrás promesas anteriores de no emplear la IA en el diseño de armas o en sistemas que pudieran causar daño general, marca un giro importante en la trayectoria ética de la empresa.
El cambio en Google fue detectado por primera vez por The Washington Post y rápidamente se hizo viral en la comunidad tecnológica. De acuerdo con los nuevos principios de la empresa Google, los productos de IA de Google «se ajustarán a los derechos humanos», pero sin especificar de qué manera se garantizará este ajuste.
Esta ambigua modificación de Google generó una serie de reacciones tanto dentro como fuera de la organización, pues pone en duda la capacidad de Google para adherirse a sus propios valores de responsabilidad social y protección de los derechos fundamentales. A continuación, ITD Consulting te cuenta todo lo referente a este cambio en Google.
Google y sus principios éticos en IA: un cambio trascendental
Desde la adquisición de DeepMind en 2014, Google adoptó una postura clara en cuanto a la ética de la inteligencia artificial, comprometiéndose públicamente a no desarrollar tecnologías que pudieran emplearse en aplicaciones militares o de vigilancia masiva. En 2018, la empresa Google formalizó estos compromisos mediante un conjunto de principios éticos que dictaban las normas para el desarrollo de sus tecnologías de IA.
En ese entonces, Google afirmó que no diseñaría ni desplegaría IA para usos que pudieran causar «daño general» o que contravinieran principios internacionales ampliamente aceptados sobre derechos humanos. El cambio de principios que Google implementó en febrero de 2025 representa un giro radical respecto a su postura original.
Los nuevos lineamientos de Google no prohíben el uso de la IA en el desarrollo de tecnologías militares ni en sistemas de vigilancia. De hecho, Google elimina cualquier compromiso explícito respecto a la no utilización de la IA en la creación de armas o herramientas que puedan causar daño. En lugar de estas restricciones, la nueva declaración de principios establece que los productos de IA de Google «se ajustarán a los derechos humanos», pero no proporciona detalles claros sobre cómo se garantizará este cumplimiento.

La eliminación de estas restricciones ha generado un debate intenso sobre la responsabilidad ética de Google en el desarrollo de tecnologías que pueden tener un impacto profundo y duradero en la sociedad. Si bien la competencia global por la supremacía en IA es un factor clave en la evolución de estas políticas, también es esencial que las empresas tecnológicas mantengan altos estándares éticos para proteger a los usuarios y prevenir el abuso de estas tecnologías en áreas tan sensibles como la defensa, la privacidad y los derechos humanos.
Las reacciones internas dentro de Google
El cambio en las directrices de IA de Google no pasó desapercibido dentro de la empresa. Los empleados, que en su mayoría habían apoyado las políticas anteriores de ética en la IA, comenzaron a expresar su descontento en los foros internos de la compañía Google. La reacción más notoria se produjo en Memegen, un tablón de mensajes utilizado por los trabajadores de Google, donde varios de ellos compartieron memes y comentarios críticos sobre la nueva postura de la empresa.
En uno de los mensajes, un empleado mostró una imagen del CEO Sundar Pichai buscando en Google “cómo convertirse en contratista de armas”, lo que sugirió que la compañía estaba dispuesta a abandonar su compromiso con la ética para obtener contratos lucrativos del sector militar. En otra publicación, un empleado utilizó un sketch cómico en el que se hacía referencia a soldados nazis, preguntando irónicamente si Google ahora se estaba convirtiendo en «el malo» de la historia.
Estas publicaciones, aunque provinieron de un número reducido de empleados, reflejan una creciente preocupación entre los trabajadores de Google acerca de la dirección ética de la empresa. La reacción interna se intensificó debido al contexto de la histórica revuelta que ocurrió en 2018, cuando los empleados se opusieron al Proyecto Maven, un programa del Pentágono que usaba IA para analizar imágenes de drones. En ese entonces, la presión interna fue suficiente para que Google abandonara el proyecto, pero ahora, con la eliminación de sus principios éticos sobre el uso de IA en aplicaciones militares, los empleados temen que la compañía esté abandonando su responsabilidad social.
Este cambio de dirección de Google también resalta una tensión más amplia dentro de la industria tecnológica, en la que las empresas deben equilibrar la innovación y la competencia global con los valores éticos que defienden públicamente. Los compromisos éticos que Google había adoptado hace siete años, en gran parte impulsados por la protesta interna, ya no parecen tener el mismo peso a medida que la empresa se enfrenta a las presiones del mercado y de los gobiernos, que demandan avances rápidos en el campo de la inteligencia artificial, especialmente en áreas relacionadas con la defensa y la seguridad nacional.
La competencia global por el liderazgo en IA
El giro de Google en su política de inteligencia artificial no se puede entender sin tener en cuenta el contexto geopolítico actual. En un mundo donde la inteligencia artificial está emergiendo como una de las tecnologías más poderosas y transformadoras del siglo XXI, las empresas tecnológicas se encuentran en una carrera frenética por dominar el mercado y liderar la innovación.
Estados Unidos, China y otras naciones están luchando por establecerse como potencias líderes en IA, y las empresas como Google, Microsoft, Amazon y Meta se encuentran en el centro de esta competencia.
En su blog oficial, Demis Hassabis, CEO de Google DeepMind, y James Manyika, vicepresidente senior de tecnología y sociedad, argumentaron que la actualización de los principios éticos de la IA era necesaria debido a la creciente competencia global. Según ellos, el «paisaje geopolítico cada vez más complejo» requiere una cooperación más estrecha entre empresas y gobiernos en el desarrollo de la IA, especialmente en áreas relacionadas con la seguridad nacional y la defensa.

Este argumento de Google se basa en la premisa de que las democracias deben liderar el desarrollo de la inteligencia artificial, pero también que las empresas tecnológicas deben colaborar con los gobiernos para garantizar que las aplicaciones de la IA sean utilizadas de manera responsable. Si bien la colaboración entre el sector privado y el público es clave para el progreso tecnológico, el uso de la IA en aplicaciones militares y de vigilancia plantea serias preocupaciones éticas, especialmente en un mundo donde los riesgos de abusos de poder son altos.
El desarrollo de la IA para la seguridad nacional no es un fenómeno aislado. Otras grandes empresas tecnológicas, como Amazon y Microsoft, ya han firmado contratos importantes con gobiernos y agencias militares para aplicar sus tecnologías de inteligencia artificial en el análisis de datos y la seguridad.
Estos acuerdos han generado polémica debido a las implicaciones éticas de utilizar IA en el contexto de la guerra, la vigilancia y el control social. La postura de Google en 2025 parece estar alineándose con la de sus competidores, lo que sugiere que las presiones geopolíticas están jugando un papel crucial en la redefinición de sus principios éticos.
El uso de la IA en el campo militar y de vigilancia: riesgos y consecuencias
Uno de los aspectos más preocupantes del cambio de política de Google es la posibilidad de que la inteligencia artificial se utilice en la creación de armas autónomas y sistemas de vigilancia masiva. En el ámbito militar, la IA puede ser utilizada para desarrollar sistemas autónomos capaces de tomar decisiones sin intervención humana, lo que plantea riesgos significativos para la seguridad de los civiles y la ética de la guerra.
El uso de IA en armas autónomas ha sido objeto de debate durante años, ya que plantea la posibilidad de que las decisiones sobre la vida y la muerte sean tomadas por algoritmos en lugar de personas. Los sistemas autónomos pueden ser diseñados para identificar y eliminar objetivos sin la supervisión de operadores humanos, lo que genera preocupaciones sobre la precisión y la ética de estas decisiones.
Además, los algoritmos de IA pueden estar sujetos a sesgos o errores que podrían resultar en el daño a personas inocentes, lo que agrava aún más los riesgos asociados con su uso. En el ámbito de la vigilancia, la IA puede ser empleada para crear sistemas de monitoreo masivo capaces de rastrear a individuos en tiempo real, lo que infringe su derecho a la privacidad.
Los gobiernos pueden utilizar estas tecnologías para controlar y monitorizar a sus ciudadanos, lo que podría dar lugar a abusos de poder y a la creación de estados autoritarios. La inteligencia artificial, si se utiliza de manera irresponsable, puede socavar las libertades individuales y los derechos fundamentales de las personas.
El giro de Google en sus principios éticos abre la puerta a la posibilidad de que la empresa participe en el desarrollo y despliegue de tecnologías de IA para fines militares y de vigilancia, lo que pone en riesgo la protección de los derechos humanos y las libertades civiles. Si bien la colaboración entre empresas tecnológicas y gobiernos puede ser beneficiosa en términos de seguridad, es esencial que se implementen regulaciones claras y estrictas para garantizar que la IA no se utilice de manera que cause daño a la sociedad.
La importancia de la regulación de la IA
El cambio de postura de Google subraya la necesidad urgente de establecer regulaciones claras y eficaces sobre el desarrollo y uso de la inteligencia artificial. Aunque las empresas tecnológicas pueden adoptar principios éticos para guiar el desarrollo de sus productos, estas directrices voluntarias no son suficientes para garantizar que la IA se utilice de manera responsable y que se respeten los derechos humanos.
Las leyes y regulaciones internacionales son fundamentales para establecer un marco normativo que asegure que la IA se utilice en beneficio de la humanidad y no para perpetuar abusos de poder o violaciones de los derechos fundamentales. La regulación de la IA debe abordar los riesgos específicos que plantea esta tecnología en aplicaciones militares, de vigilancia y en otros contextos sensibles.
Los gobiernos deben trabajar juntos para establecer normas que guíen el desarrollo de la IA de manera ética, garantizando que no se utilice para fines que puedan poner en peligro la seguridad, la privacidad o la dignidad humana. Las empresas tecnológicas, incluida Google, deben estar sujetas a estas regulaciones para asegurar que sus productos de IA se utilicen de manera responsable.

El giro ético de Google en cuanto a sus principios de inteligencia artificial marca un punto de inflexión importante en la industria tecnológica. La eliminación de los compromisos de Google de no utilizar IA en armas y vigilancia pone de manifiesto las presiones comerciales y geopolíticas que enfrentan las empresas tecnológicas en la actualidad.
Sin embargo, este cambio en Google también plantea importantes preguntas sobre la responsabilidad ética de las empresas en el desarrollo de tecnologías que tienen el poder de cambiar el curso de la historia. A medida que la competencia por el liderazgo en IA se intensifica, es crucial que las empresas como Google no pierdan de vista los valores fundamentales que deben guiar el desarrollo de estas tecnologías.
La inteligencia artificial tiene el potencial de mejorar significativamente nuestras vidas, pero solo si se desarrolla y utiliza de manera ética, responsable y respetuosa con los derechos humanos. La regulación y supervisión de la IA será esencial para garantizar que su impacto en la sociedad sea positivo y que se evite su uso para fines que puedan perjudicar a las personas y las naciones.
En última instancia, la responsabilidad de las empresas tecnológicas como Google no debe limitarse a la búsqueda de beneficios comerciales, sino que debe extenderse a la protección de los derechos humanos y las libertades fundamentales. La inteligencia artificial debe ser una herramienta para el bien común, no para el abuso o la explotación.
El futuro de la IA dependerá de las decisiones que tomemos hoy, y es fundamental que estas decisiones se basen en principios sólidos y en un compromiso con el bienestar global. Si deseas conocer más de las últimas innovaciones en IA y del papel que está desempeñando Google con este giro ético, escríbenos a [email protected]. Tenemos la asesoría en tecnología que tu empresa necesita para mantenerse a la vanguardia.