Google no quiere llegar a ser Skynet. La compañía quiere evitar que las inteligencias artificiales a volverse contra la humanidad.

Posted by Mini Drive on 2016-06-23

Hay un gran número de teorías sobre el futuro. Algunas de ellas son más imaginario, pero en cualquier momento, cualquier persona puede desarrollar una tecnología que parece haber sido tomada de una película. Otras teorías, por otra parte, están muy cerca de la verdad. Este es el caso de la inteligencia artificial. En un momento en que los asistentes personales puede organizar tu vida por ti, escribir tus mensajes, crear listas de compras, elegir la mejor ruta al trabajo, y todavía es posible programarlos para que tengan temperamentos similares con el de una persona de hecho, es fácil imaginar un mundo en el que IA son cada vez similares a los humanos.

Es posible que pronto vamos a vivir como en las películas futuristas que tanto nos gusta.

Sin embargo, las películas a menudo muestran un futuro donde las máquinas entran en guerra contra los humanos. Los escritores y los guionistas muestran una hipótesis muy plausible: aunque las inteligencias artificiales están programados para "imitan" a la razón humana, ellas están basada en la lógica matemática. ¿Que quiere decir eso? Es divertido tener un teléfono que te habla como si fuera un amigo. Pero esto es sólo una simulación, cuando se hace una cuestión objetiva, tu "amigo" siempre te dará la respuesta más lógica posible. Es por esta razón que los autores creen que las máquinas inteligentes y autónomas pueden volverse contra los seres humanos.

Como una de las empresas que invierten en tecnología y en inteligencia artificial, Google está estudiando la creación de un botón de autodestrucción, de manera que las máquinas no se vuelvan contra la humanidad. Un documento de diez páginas se publicó en Internet, firmado por Laurent Orseau y Stuart Armstrong. El documento detalla el desarrollo de un interruptor que apagar la inteligencia artificial, manteniendo el control humano sobre computadoras y máquinas.

El sistema se llama interrumpible

"Interrumpible segura puede ser útil para tomar el control de un robot que no se está comportando bien y que podría conducir a consecuencias irreversibles, o para llevarlo a cabo de una situación delicada, o incluso utilizarlo temporalmente para aprender una tarea nueva a través de recompensas ", dijeron los investigadores.

Según los investigadores, esta es una manera de tomar el control de un robot que se porta mal y colocarlo en una situación más segura con el fin de evitar que se produzcan consecuencias irreversibles. El botón también puede utilizarse para activar un comportamiento predeterminado en robots.

¿Tu estás de acuerdo con la preocupación de Google?


Older Post


0 comments


Leave a comment

Please note, comments must be approved before they are published