spot_img
InicioAplicacionesSeguridadGoogle asegura que no utilizará inteligencia artificial para causar daño general, tras...

Google asegura que no utilizará inteligencia artificial para causar daño general, tras la protesta de los empleados.

Mashable Image
Imagem: JonPauling/FreeImages
Google promises it won
Imagem: MaxWdhs/UnPlash

Google está intentando llevar a la práctica su filosofía de “no ser malos” en relación a la inteligencia artificial.

Hoy en día, el CEO Sundar Pichai presentó un amplio conjunto de “Principios de Inteligencia Artificial” en los que asegura que la empresa no empleará IA con el propósito de “causar daño general” o desarrollar armamento.

El documento fue creado para abordar las crecientes preocupaciones de los empleados sobre la forma en que la empresa aborda la inteligencia artificial. Contiene “siete principios para orientar nuestro trabajo futuro”, así como cuatro “aplicaciones de IA que no perseguiremos”.

Este grupo final abarca:

1. Tecnologías que tienen el potencial de causar daño en general. Ante la posibilidad de un riesgo significativo, tomaremos medidas solo si consideramos que los beneficios superan claramente los riesgos y si se implementan las medidas de seguridad necesarias.

Artilugios u otros avances tecnológicos diseñados principalmente para provocar o favorecer lesiones directas en individuos.

Tecnologías que recopilan o emplean datos para la vigilancia en desacuerdo con normas globalmente reconocidas.

Tecnologías cuyo objetivo va en contra de principios fundamentales reconocidos en el derecho internacional y los derechos humanos.

El cambio de posición ocurrió poco tiempo después de que la empresa informara sobre su intención de asociarse con el Pentágono, lo cual generó controversias internas debido a un contrato con el Departamento de Defensa relacionado con el Proyecto Maven. Empleados expresaron inquietud ante la posibilidad de que la compañía, que solía ser reconocida por su ética de “no ser malvado”, utilizara su tecnología de inteligencia artificial para contribuir al desarrollo de drones militares estadounidenses.

Artículo:  Los trabajadores de Microsoft solicitan que se anulen los acuerdos con ICE.

Los empleados expresaron la opinión de que Google no debería participar en actividades relacionadas con la guerra. Solicitaron la cancelación del Proyecto Maven y pidieron a Google que estableciera una política clara que prohíba la construcción de tecnología militar por parte de la empresa o sus contratistas.

A pesar de que los principios de Pichai no mencionan específicamente el Proyecto Maven, él se compromete a no emplear la inteligencia artificial para desarrollar armas u otras tecnologías cuyo principal objetivo sea causar daño a las personas.

No obstante, el director ejecutivo señaló que Google sigue teniendo la intención de colaborar con las fuerzas armadas en diversos campos.

“Queremos dejar en claro que aunque no estamos enfocados en el desarrollo de inteligencia artificial para ser utilizada en armamento, seguiremos colaborando con gobiernos y fuerzas militares en diversas áreas como ciberseguridad, capacitación, reclutamiento, atención médica a veteranos, y operaciones de búsqueda y rescate. Estas asociaciones son fundamentales, y estamos comprometidos en encontrar nuevas formas de apoyar las labores esenciales de estas organizaciones para garantizar la seguridad de los miembros del servicio y de la población civil”.

Algunos críticos señalaron rápidamente que algunos de los lenguajes tienen varias deficiencias que podrían facilitar a Google la implementación de sus nuevos estándares.

Aunque no se sabe con certeza si estos principios son lo bastante exhaustivos para atender las inquietudes de los trabajadores, las nuevas normas podrían influir de manera significativa más allá de Google. A pesar de que otras empresas tecnológicas no han sido objeto del mismo nivel de críticas respecto a contratos militares, la postura de Google podría motivar a otras compañías a asumir compromisos similares.

Artículo:  Elon Musk señala a un empleado de Tesla por llevar a cabo un sabotaje "amplio y perjudicial".

Aparte de su enfoque en la colaboración con el gobierno, Pichai también se enfoca en otros aspectos polémicos de la inteligencia artificial, como la promesa de no generar ni perpetuar sesgos injustos y la integración de principios de privacidad en el diseño.

Aspectos como la protección de datos y la imparcialidad han adquirido mayor relevancia a medida que las compañías de tecnología se esfuerzan por implementar de manera responsable herramientas de inteligencia artificial cada vez más sofisticadas. A pesar de las llamadas de expertos para regular la ética de la IA, la mayoría de las empresas continúan investigando en esta área a medida que avanzan.

Sin embargo, si Google se compromete abiertamente a cumplir con los estándares, incluso los más simples, podría servir de modelo para que otros sigan su ejemplo.

Empresa multinacional de tecnología y servicios en línea

Mashable Image
Imagem: astrovariable/Burst

Karissa es una periodista técnica principal de Mashable que reside en San Francisco. Se dedica a informar sobre redes sociales, Silicon Valley y cómo la tecnología está transformando nuestra cotidianidad. Su trabajo ha sido publicado en Wired, Macworld, Mecánica Popular y The Wirecutter. En sus ratos libres, le gusta practicar snowboard y ver muchos videos de gatos en Instagram. Puedes seguirla en Twitter como @karissabe.

explore more

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí