Elon Musk y un gran grupo de expertos piden una pausa en el desarrollo de la inteligencia artificial

¿Seremos superados en número, engañados y considerados inservibles por máquinas inteligentes en constante evolución? Aquí te contamos las razones por las que Elon Musk, científicos y ejecutivos de la industria están pidiendo una pausa de seis meses en el desarrollo de poderosos sistemas de inteligencia artificial.

A man speaks

Musk, quien anteriormente había expresado su frustración por los esfuerzos para regular el sistema de piloto automático de Tesla, ahora busca una autoridad reguladora para garantizar que el desarrollo de sistemas de inteligencia artificial sirva al interés público. Source: AP / Susan Walsh

Puntos destacados:
  • Expertos en inteligencia artificial han pedido una pausa en el desarrollo de sistemas de IA debido a los riesgos potenciales para la sociedad.
  • El poderoso sistema de inteligencia artificial GPT, de la empresa OpenAI, ha planteado preocupaciones en torno a la seguridad nacional, la desinformación y la educación.
  • El director de Open AI ha reconocido tener "un poco de miedo" de que su algoritmo se utilice para "desinformación a gran escala o ciberataques".
Un grupo de expertos en inteligencia artificial y ejecutivos de la industria, entre los que se encuentra Elon Musk, están pidiendo una pausa de seis meses en el desarrollo de sistemas más potentes de inteligencia artificial (IA) en una carta abierta que cita riesgos potenciales para la sociedad.

A principios de este mes la empresa OpenAI, respaldada por Microsoft, presentó la cuarta versión de su programa de inteligencia artificial GPT (Generative Pre-trained Transformer), que ha cautivado a los usuarios al involucrarlos en conversaciones similares a las humanas, componiendo canciones y resumiendo documentos extensos.

"Los potentes sistemas de inteligencia artificial deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables", dice la carta emitida por Future of Life Institute.
La organización sin fines de lucro está financiada principalmente por la Fundación Musk, así como por el grupo Founders Pledge, con sede en Londres, y la Fundación Comunitaria de Silicon Valley, según el registro de transparencia de la Unión Europea.

Carta desata debate entre académicos y expertos

La carta pública firmada por el magnate Elon Musk y centenares de expertos para que se haga una pausa en el desarrollo de la inteligencia artificial desató este jueves un debate en las redes entre los académicos.

Los avances vertiginosos de la IA llevaron a Musk, fundador del gigante de los autos eléctricos Tesla y actual dueño de Twitter, a firmar esa carta, frente a lo que se califica de "dramática perturbación económica y política (especialmente para la democracia) que causará la IA".
Musk, quien ha expresado su frustración por los esfuerzos para regular el sistema de piloto automático de Tesla, ahora busca una autoridad reguladora para garantizar que el desarrollo de la IA sirva al interés público.

Es... profundamente hipócrita que Elon Musk firme dado lo mucho que Tesla ha luchado contra la rendición de cuentas por la IA defectuosa en sus autos autónomos.
James Grimmelmann, profesor de derecho digital y de la información en la Universidad de Cornell.
"Una pausa es una buena idea, pero la carta es vaga y no toma en serio los problemas regulatorios", agregó.

A pesar de que la carta, publicada en el sitio futureoflife.org, fue suscrita por pensadores independientes como el historiador Yuval Noah Hariri, o el cofundador de Apple, Steve Wozniak, algunos académicos protestan por lo que consideran una malinterpretación de la discusión.

Timnit Gebru, una investigadora especializada en ética de la inteligencia artificial, escribió un artículo académico que fue citado en la carta de Musk y sus correligionarios, y ahora se muestra descontenta.

"Básicamente dicen lo contrario de lo que decimos y citamos en nuestro artículo", explica.

La otra autora del artículo, Emily Bender, califica por su parte la carta abierta de "embrollo".
"En los últimos meses hemos visto cómo los laboratorios de IA se han lanzado a una carrera descontrolada para desarrollar y desplegar cerebros digitales cada vez más potentes que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera fiable", afirman Musk y los expertos.

El director de Open AI, que diseñó ChatGPT, Sam Altman, ha reconocido tener "un poco de miedo" de que su algoritmo se utilice para "desinformación a gran escala o ciberataques".

Las académicas Gebru y Bender afirman en cambio que el peligro de la IA es "la concentración de poder en manos de gente, la reproducción de sistemas de opresión, el daño al ecosistema informativo".

Uno de los firmantes de la carta abierta, Emad Mostaque, fundador de la empresa británica Stability AI, aseguró por su parte que se retractaba de la demanda de una moratoria de seis meses.

"No creo que una pausa de seis meses sea la mejor idea" dijo en Twitter.
El profesor de psicología Gary Marcus, firmante de la carta, considera en cambio en una contrarréplica que "los escépticos tienen que emitir una alarma; no hay ninguna contradicción al respecto".

“¿Debemos arriesgarnos a perder el control de nuestra civilización?”

OpenAI no respondió de inmediato a una solicitud de comentarios sobre la carta abierta, que instó a una pausa en el desarrollo avanzado de IA hasta que expertos independientes desarrollaran protocolos de seguridad compartidos y pidió a los desarrolladores que trabajaran con los legisladores en materia de gobernanza.

"¿Debemos permitir a las máquinas inundar nuestros canales de información con propaganda y mentiras? ¿Debemos automatizar todos los trabajos, incluidos los gratificantes? (...) ¿Debemos arriesgarnos a perder el control de nuestra civilización? Estas decisiones no deben delegarse en líderes tecnológicos no electos", señalan los firmantes de la carta.
Abstract design made of head outlines, lights and abstract design elements on the subject of intelligence,  consciousness, logical thinking, mental processes and brain power
Source: Flickr / Saad Faruque/ Flickr
La carta fue firmada por más de 1.000 personas, incluido Musk. Sam Altman, director ejecutivo de OpenAI, no está entre los firmantes. Sundar Pichai y Satya Nadella, directores ejecutivos de Alphabet y Microsoft, tampoco estaban entre los que firmaron.

Los cosignatarios incluyeron al director ejecutivo de Stability AI, Emad Mostaque, a investigadores de DeepMind, propiedad de Alphabet, y a figuras como Yoshua Bengio, a menudo denominado como uno de los "padrinos de la IA", y Stuart Russell, un pionero de la investigación en el campo.
Las preocupaciones surgen cuando ChatGPT atrae la atención de los legisladores estadounidenses con preguntas sobre su impacto en la seguridad nacional y la educación. La fuerza policial de la UE, Europol, advirtió el lunes sobre el posible uso indebido del sistema en intentos de phishing, desinformación y ciberdelincuencia.

Mientras tanto, el gobierno del Reino Unido dio a conocer propuestas para un marco regulatorio "adaptable" en torno a la IA.


Share
Published 31 March 2023 9:24am
Updated 31 March 2023 10:07am
Presented by Silvia Rosas
Source: AAP, AFP

Share this with family and friends