Drones y coches autónomos como armas: por qué debemos temer a los piratas informáticos
Drones y coches autónomos como armas: por qué debemos temer a los piratas informáticos
Anonim

Si la inteligencia artificial cae en las manos equivocadas, el mundo civilizado puede sumirse en el caos.

Drones y coches autónomos como armas: por qué debemos temer a los piratas informáticos
Drones y coches autónomos como armas: por qué debemos temer a los piratas informáticos

Nadie negará que la inteligencia artificial puede llevar nuestras vidas al siguiente nivel. La IA puede resolver muchos problemas que están más allá del poder de los humanos.

Sin embargo, muchos creen que la superinteligencia definitivamente querrá destruirnos, como SkyNet, o comenzará a realizar experimentos con personas, como GLADoS del juego Portal. La ironía es que solo los humanos pueden hacer que la inteligencia artificial sea buena o mala.

Por qué la inteligencia artificial puede ser una seria amenaza
Por qué la inteligencia artificial puede ser una seria amenaza

Investigadores de la Universidad de Yale, Oxford, Cambridge y OpenAI han publicado un informe sobre el abuso de la inteligencia artificial. Dice que el verdadero peligro proviene de los piratas informáticos. Con la ayuda de código malicioso, pueden interrumpir el funcionamiento de sistemas automatizados bajo el control de IA.

Los investigadores temen que las tecnologías bien intencionadas se vean perjudicadas. Por ejemplo, el equipo de vigilancia puede usarse no solo para atrapar a terroristas, sino también para espiar a los ciudadanos comunes. Los investigadores también están preocupados por los drones comerciales que entregan alimentos. Es fácil interceptarlos y plantar algo explosivo.

Otro escenario para el uso destructivo de la IA son los coches autónomos. Basta con cambiar algunas líneas de código y las máquinas comenzarán a ignorar las reglas de seguridad.

Por qué la inteligencia artificial puede ser una seria amenaza
Por qué la inteligencia artificial puede ser una seria amenaza

Los científicos creen que la amenaza puede ser digital, física y política.

  • La inteligencia artificial ya se está utilizando para estudiar las vulnerabilidades de varios códigos de software. En el futuro, los piratas informáticos pueden crear un bot que evite cualquier protección.
  • Con la ayuda de la IA, una persona puede automatizar muchos procesos: por ejemplo, controlar un enjambre de drones o un grupo de coches.
  • Con la ayuda de tecnologías como DeepFake, es posible influir en la vida política del estado mediante la difusión de información falsa sobre los líderes mundiales que utilizan bots en Internet.

Estos espantosos ejemplos hasta ahora existen solo como hipótesis. Los autores del estudio no sugieren un rechazo total a la tecnología. En cambio, creen que los gobiernos nacionales y las grandes empresas deben cuidar la seguridad mientras la industria de la inteligencia artificial aún está en su infancia.

Los formuladores de políticas deben estudiar tecnología y trabajar con expertos en el campo para regular de manera efectiva la creación y el uso de inteligencia artificial.

Los desarrolladores, a su vez, deben evaluar el peligro que representa la alta tecnología, anticipar las peores consecuencias y advertir a los líderes mundiales sobre ellas. El informe pide a los desarrolladores de IA que se unan a expertos en seguridad en otros campos y vean si los principios que garantizan la seguridad de estas tecnologías se pueden utilizar para proteger la inteligencia artificial.

El informe completo describe el problema con más detalle, pero la conclusión es que la IA es una herramienta poderosa. Todas las partes interesadas deben estudiar la nueva tecnología y asegurarse de que no se utilice con fines delictivos.

Recomendado: