La percepció errònia de la IA.


El excesivo antropomorfismo creo que es el motivo por el que la sociedad tiene en gran medida una percepción errónea de lo que es la IA. Cuando nos informan de logros espectaculares de una IA específica en una competencia concreta, como el caso de AlphaZero, tendemos a generalizar y atribuimos a la IA la capacidad de hacer prácticamente cualquier cosa que hacemos los seres humanos y hacerlo mucho mejor. En otras palabras, creemos que la IA no tiene límites cuando de hecho es extremadamente limitada y, lo que es más importante, no tiene casi nada que ver con la inteligencia humana.
Es cierto que la inteligencia humana es el referente principal de cara a alcanzar el objetivo último de la IA, es decir, una IA fuerte y general. Pero en mi opinión, por muy sofisticada que llegue a ser la IA siempre será distinta de la humana, ya que el desarrollo mental que requiere toda inteligencia compleja depende de las interacciones con el entorno y estas interacciones dependen a su vez del cuerpo, en particular del sistema perceptivo y del sistema motor. Esto, sumado al hecho de que las máquinas muy probablemente no seguirán procesos de socialización y culturización, incide todavía más en que, por muy sofisticadas que lleguen a ser, las máquinas tendrán una inteligencia distinta a la nuestra.
El hecho de ser inteligencias ajenas a la humana, y por lo tanto ajenas a los valores y necesidades humanas, nos debería hacer reflexionar sobre posibles limitaciones éticas en el desarrollo de la IA. En particular, ninguna máquina debería tomar nunca decisiones de forma completamente autónoma ni dar consejos que requieran, entre otras cosas, de la sabiduría (producto de experiencias humanas) o de valores humanos.
El peligro de la IA no es la singularidad tecnológica por la existencia de unas futuras hipotéticas súper inteligencias artificiales. No, los verdaderos peligros ya están aquí y tienen que ver con la privacidad (vigilancia y control masivo de la ciudadanía); con la autonomía de los sistemas de IA (armas autónomas, high frequency trading en los mercados bursátiles); con la excesiva confianza acerca de sus capacidades (substitución de personas por máquinas en prácticamente cualquier puesto de trabajo); con el sesgo de los algoritmos de aprendizaje y las consiguientes decisiones erróneas que ello supone; con la incapacidad de rendir cuentas cuando la decisión es errónea; y con la imposibilidad para explicar esas decisiones en un lenguaje comprensible para las personas.
Ramón López de Mántaras, Máquinas listas, pero sin sentido común, El País 16/03/2018

Comentaris

Entrades populars d'aquest blog

Percepció i selecció natural 2.

Gonçal, un cafè sisplau

"¡¡¡Tilonorrinco!!! ¡¡¡Espiditrompa!!!"