Google ha emitido la sección de que no utilizará la tecnología de los principios de inteligencia artificial para la vigilancia o las aplicaciones de armas. En la antigua política de la compañía en 2018, la compañía dijo por primera vez que no se realizaría ni se diseñarían ni se diseñarían ni se diseñarían o distribuidas las herramientas de inteligencia artificial que podrían usarse para armas o tecnologías de vigilancia.
Al eliminar la sección en cuestión, Google, en cambio, dijo que la responsabilidad de este tema está en desarrollo y distribución. Según el testimonio de Google, este enfoque se implementará solo con la vigilancia humana adecuada, la detección de estatus y los mecanismos de retroalimentación para ser compatibles con los objetivos del usuario, la responsabilidad social y los principios de derecho internacional y derechos humanos comúnmente aceptados.
El vicepresidente senior de Google, James Manyika, y el presidente de Laboratorio de Inteligencia Artificial, Demis Hassabis, presidente de Google Deepmind, compartieron en la publicación de blog Dijo que los gobiernos ahora deberían trabajar juntos para apoyar la seguridad nacional. En el envío, la tecnología se ha desarrollado desde 2018 y esto significa que los principios necesitan algunos ajustes finos:
«Miles de millones de personas usan inteligencia artificial en su vida diaria».
“La inteligencia artificial se ha convertido en una tecnología de propósito general y una plataforma utilizada por innumerables organizaciones e individuos para desarrollar aplicaciones. Ya no ha sido una investigación de nicho en el laboratorio y se ha convertido en una tecnología que se ha generalizado como los teléfonos móviles e Internet en sí.
Al afirmar que la competencia global sobre la inteligencia artificial en un entorno geopolítico cada vez más complejo, el dúo cree que las democracias deberían liderar el desarrollo de la inteligencia artificial bajo la guía de valores fundamentales como la libertad, la igualdad y el respeto por los derechos humanos.
Mientras tanto, Google se ha centrado previamente en el uso de drones soportados por inteligencia artificial en la industria de defensa con Project Maven. De hecho, el proyecto de drones autónomo de Google, la ingeniería Laura Nolan, que trabajó en Project Maven, debería ser prohibido en 2019, la humanidad y los robots letales deben ser prohibidos en el campo de batalla explicado.
Sin embargo, los gobiernos no adoptan este enfoque cuando se trata de estrategias de defensa. Tanto tanto; Dentro de la cooperación de OpenAi con Anduril; Se afirma que el Ejército de los EE. UU. Proporcionaría tecnología de inteligencia artificial a los sistemas utilizados contra ataques de vehículos aéreos no tripulados. Openai, quien previamente prohibió el uso de la inteligencia artificial en la guerra, cambió este enfoque en enero. Después de este cambio, la compañía firmó acuerdos con el Pentágono para actividades de seguridad cibernética y otros proyectos. Es probable que Google adopte un enfoque similar pronto.