Luego de la polémica surgida por el Proyecto Maven, que permitía el uso de la Inteligencia Artificial de Google por el Ejército de Estados Unidos en drones, la compañía señaló que no renovarían el contrato cuando este se acabe en marzo de 2019.
A partir de esta problemática Google se ha autoimpuesto siete principios éticos para los proyectos donde usen Inteligencia Artificial.
Google además ha destacado aquellos productos en los que están ayudando a gente mediante Inteligencia Artificial.
1.- Que sea beneficioso socialmente. Uno de los valores a evaluar es si el proyecto beneficia en áreas como la atención médica, seguridad, energía, transporte, fabricación y entretenimiento.
2.- Que no cree o refuerce un sesgo injusto. Reconocer los sesgos «justos» de los injuntos no siempre es tarea sencilla, pero Google plantea que sea indispensable a la hora de adentrarse en un nuevo proyecto de IA.
3.- Construida por y para ser segura. Además de estar probada para que sea segura, las IA tendrán que ser probadas para ser prudentes, dos variables que serán probadas en entornos restringidos y supervisados.
4.– Ser responsable ante las personas. Estará siempre bajo el mando humano.
5.- Incorporar principios de diseño de privacidad. Se recibirán avisos y consentimientos y se brindará transparencia, además de controles adecuados para el uso de datos de usuarios.
6.– Se mantendrá altos estándares de excelencia científica.
7.- Estar disponible para usos que estén de acuerdo con estos principios. Se limitará las aplicaciones de esta IA en entornos potencialmente dañinos o abusivos en su propósito primario, naturaleza o singularidad o escala (es decir, cómo afectará el proyecto a nivel global).
Además, Google advirtió que no usará este tipo de software en tecnologías que causan o pueden causar un daño general.
En armas u otras tecnologías cuyo principal propósito o implementación es causar o facilitar directamente lesiones a las personas.
Tampoco se usará en tecnologías que recopilan o usan información para la vigilancia que viola las normas internacionalmente aceptadas y en tecnologías cuyo propósito infringe los principios ampliamente aceptados del derecho internacional y los derechos humanos.