Un cerebro que procesa cantidades ingentes de información, aprende de los resultados de sus actos y no descansa nunca, realmente la genialidad humana logró crear algo que supera a su propia capacidad, pero los expertos advierten que estos avances pueden ser devastadores si se emplean para el mal.
No es la primera vez que escuchamos esta advertencia apocalíptica, pero en esta ocasión se trata de un grupo de expertos conocedores de la inteligencia artificial quienes ponen nombre y apellidos a estas amenazas en un detallado estudio que ha sido publicado en la red y que invita al debate.
El informe advierte que un sistema capaz de tomar decisiones en milisegundos y teniendo en consideración millones de datos puede, sin duda, beneficiar a la humanidad, pero al mismo tiempo, puede ser devastador si la persona que lo programa tiene fines oscuros.
El informe detalla posibles efectos devastadores en los siguientes ámbitos:
En ordenadores o servidores
Phising: Un sistema automatizado que genere correos electrónicos falsos y los envíe de forma masiva para obtener datos confidenciales del usuario, considerando las tendencias del momento o las vulnerabilidades existentes.
Hackeos masivos: ¿Se imaginan el alcance que podría tener un sistema basado en ordenadores que aprenden con cada error y que trabajan de forma infatigable?
Difusión masiva de información falsa en redes: Millones de tuits automatizados durante la pasada consulta ilegal del pasado 1 de octubre fueron dirigidos a contaminar las redes con propaganda independentista
Retirada automatizada de contenido de la red: Hasta ahora, si alguien quiere eliminar fotografías o información publicada en la red, se trata de un proceso bastante laborioso que podría ser acortado de forma masiva por las máquinas.
Terrorismo automatizado: No parece probable que veamos a robots disparando por las calles, pero el informe sí contempla la posibilidad de que seamos atacados por drones comerciales o vehículos autónomos en una maniobra programada y sin riesgos para quien la ordena.
No hay comentarios:
Publicar un comentario