Ética artificial

16/07/2018
  • Español
  • English
  • Français
  • Deutsch
  • Português
  • Opinión
-A +A

En 2017, el gigante de Internet Google firmó un contrato con el Departamento de Defensa de Estados Unidos para proveer con inteligencia artificial a sus drones militares. Durante años, el uso de drones similares había sido criticado y denunciado por sus devastadores efectos colaterales, tanto por los muertos no previstos como por sus efectos psicológicos, culturales e ideológicos a largo plazo. En consecuencia, varios técnicos pioneros, como el ingeniero Jeff Dean, firmaron una protesta contra el uso de armas autónomas provistas con inteligencia artificial. Doce de ellos renunciaron a sus cargos.

 

El primero de junio de 2018, Diane Greene anunció que Google no renovaría el contrato con el gobierno de Estados Unidos. En cambio, se firmaron unos principios de trabajo, alguno de los cuales mencionaban el “beneficio social” o la “seguridad” como alguno de sus principios éticos. Según Jeremy Howard, fundador de fast.ai, y según otros analistas, esta crítica y posterior rectificación de Google se debe a que casi todos los técnicos y expertos en Inteligencia Artificial en la actualidad son formados en las universidades estadounidenses, las cuales son bastiones liberales y antibélicos. En estas universidades todavía sobrevive la tradición de las llamadas libeal arts, según la cual cualquier técnico debe educarse en humanidades tanto como los humanistas deben tomar cursos de ciencias y tecnología.

 

En los últimos años, entre otros factores por el ascenso de la ideología dominante de los negocios, las humanidades han estado bajo ataque, no sólo a través de una creciente mitología utilitarista sino por sucesivos recortes de presupuestos, tanto en las universidades como en los medios públicos que priorizan las artes y las ciencias sobre la popularidad de la vulgaridad y los talk shows.

 

Como esta estrategia no ha sido suficiente, las corporaciones están tomando cartas en el asunto de forma más directa. Para evitar inconvenientes como los producidos por los técnicos disidentes de Google, están produciendo programas que preparen sus propios técnicos sin los inconvenientes ni la pérdida de tiempo de las humanidades y otras distracciones. Expertos funcionales, funcionarios más eficaces y dóciles, individuos expertos en robótica e inteligencia artificial que cada vez se parezcan más a robots y menos a individuos.

 

Al fin y al cabo, los robots con inteligencia artificial también pueden tomar decisiones éticas, y mucho más rápido, Para Un Mundo Más Eficiente.

 

Jorge Majfud es escritor uruguayo estadounidense, autor de Crisis otras novelas.​

 

https://www.alainet.org/es/articulo/194136?language=es
Suscribirse a America Latina en Movimiento - RSS