Por precaución apagan una inteligencia artificial que logró desarrollar su propio lenguaje
El desarrollo de la inteligencia artificial y sus "supuestos peligros"
Bruno I. Scollo
Todo comenzó con la investigación Fair, un proyecto que buscaba mejorar una inteligencia artificial, de esas que pueden, por ejemplo, respondernos en un chat de ayuda.
Por tal motivo dos bots, llamados "Alice y Bob" fueron programados para negociar entre sí, hablando en inglés.
No obstante, aunque todo marchaba según lo planeado y los bots negociaban entre sí cada vez mejor, algo cambió de repente. Los investigadores se sorprendieron cuando notaron que los bots estaban diciendo lo que parecían sin sentido. En primer lugar, imaginaron un error. Pero rápidamente se dieron cuenta de algo sorprendente: al analizarlo llegaron a la conclusión de que Bob y Alice no estaban hablando de modo incoherente, sino que habían creado un lenguaje ininteligible para los humanos.
Al parecer, los interlocutores se habían puesto de acuerdo para eliminar ciertos "ornamentos" del idioma, de modo que fuera más efectivo y les permitiera negociar mejor. Pronto el idioma se volvió, para los humanos, incomprensible.
Según trascendió, ante este hecho que puede verse como una forma de que "la inteligencia artificial se salga de control", los investigadores decidieron apagar el sistema para impedir que el lenguaje continuara evolucionando.
El equipo a cargo del experimento informó que decidió apagarlo, no porque existiera un peligro (como que los robots "escaparan" a la web), sino porque, de surgir un error y no poder ser comprendido, no podrían repararlo.( BIOGUÍA INNOVACIÓN –Agradecimiento a Laura Vidal)
NOTA ACLARATORIA: Digital Journal, un periódico que reportó el caso, señaló que no es la primera vez que una IA (Inteligencia Artificial) crea su propio lenguaje. Ya se había comprobado dentro de la fundación OpenAI, fundada por Elon Musk, que las IA desarrollaban su propia manera de comunicarse.
_(800_x_800_px).jpg)

