Sembla que no passarà un mes sense que cap persona d’alt perfil comentés el potencial que les màquines amb Intel·ligència Artificial es facin càrrec del món. Elon Musk consta que afirma que els sistemes d'AI són "potencialment més perillosos que els nocius". Però no és l'únic, també està preocupat per Stephen Hawking: "El desenvolupament d'una intel·ligència artificial plena podria suposar el final de la raça humana". El professor Hawking va dir a la BBC. "Es desenganxaria i tornaria a dissenyar-se a un ritme cada vegada més gran". Fins i tot, Bill Gates està preocupat: "Estic al campament preocupat per la super intel·ligència. Estic d’acord amb Elon Musk i altres persones sobre això i no entenc per què algunes persones no estan preocupades ”.
Tots mostren preocupacions sobre la possibilitat que potents sistemes d’AI tinguin conseqüències involuntàries, o fins i tot potencialment desastroses. El gener, Elon Musk va donar 10 milions de dòlars a l’Institut Future of Life (FLI) per executar un programa d’investigació global dirigit a mantenir l’IA beneficiosa per a la humanitat.
Avui l’Institut Future of Life ha anunciat que ha atorgat 7 milions de dòlars en fons a 37 equips d’investigació de tot el món perquè la societat pugui obtenir els beneficis de l’IA, evitant l’apocalipsi i el final de la vida a la Terra.
El perill amb l'escenari Terminator no és que passi, sinó que distreu els problemes reals que planteja la IA futura.
Jaan Tallin, un dels membres fundadors del FLI i el tipus que va escriure la versió original de Skype, va dir de la nova investigació: “construir una IA avançada és com llançar un coet. El primer repte és maximitzar l’acceleració, però un cop comença a agafar velocitat, també cal centrar-se en la direcció. "
Entre els 37 projectes hi ha tres projectes que tractaran tècniques per permetre als sistemes d’AI aprendre el que els humans prefereixen observar el nostre comportament. Un d'aquests projectes es desenvoluparà a la UC Berkeley i un a la Universitat d'Oxford.
Benja Fallenstein, al Machine Intelligence Research Institute, està aconseguint 250.000 dòlars a investigar formes de mantenir els interessos dels sistemes superintel·ligents alineats amb els valors humans. Mentre que l’equip de Manuela Veloso, de la Universitat Carnegie-Mellon, rebrà 200.000 dòlars per veure com fer que els sistemes d’AI expliquin les seves decisions a les persones.
Altres projectes inclouen un estudi de Michael Webb de la Universitat de Stanford sobre com mantenir els impactes econòmics de l'AI, un projecte sobre com mantenir les armes impulsades per l'AI sota un "control humà significatiu" i un nou centre de recerca d'Oxford-Cambridge per estudiar AI -política rellevant.
Parlant de Hollywood, la FLI està intentant desvincular-se de l’apocalipsi. El FLI vol insistir en la importància de separar el fet de la ficció. "El perill amb l'escenari Terminator no és que passi, sinó que distreu els problemes reals plantejats per la futura IA", va dir el president de FLI, Max Tegmark. "Ens mantenim concentrats i els 37 equips recolzats en les subvencions d'avui haurien d'ajudar a resoldre aquests problemes reals".
Què penses? Diners ben gastats?