Spanish English French German Italian Portuguese
Marketing Social
InicioTecnologíaInteligencia Artificial¿Puede ser ChatGPT un 'virus que ha sido liberado'?

¿Puede ser ChatGPT un ‘virus que ha sido liberado’?

Sam Altman poco después de dejar su cargo como presidente de Y Combinator se convirtió  en director ejecutivo de la compañía de inteligencia artificial que cofundó en 2015 con Elon Musk y otros, OpenAI.

En ese momento, Altman describió el potencial de OpenAI en un lenguaje que sonaba extraño para algunos. Altman dijo, por ejemplo, que la oportunidad con la inteligencia artificial general (inteligencia de máquina que puede resolver problemas tan bien como un ser humano) es tan incomprensiblemente enorme que si OpenAI lograra descifrarla, el equipo podría «tal vez capturar todos los futuros valores en el universo.” Dijo que la compañía «va a tener que no publicar investigaciones» porque es muy poderosa. Cuando se le preguntó si OpenAI era culpable de infundir temor, Elon Musk, cofundador del equipo, ha pedido repetidamente a todas las organizaciones que desarrollan IA deben regularse — Altman habló sobre los peligros de no pensando en las «consecuencias sociales» cuando «estás construyendo algo con una curva exponencial».

La audiencia se rió en varios puntos de la conversación, sin saber qué tan en serio tomar a Altman. Sin embargo, ahora ya nadie se ríe. Si bien las máquinas aún no son tan inteligentes como las personas, la tecnología que OpenAI ha lanzado al mundo desde entonces se acerca lo suficiente como para que algunos críticos teman que podría ser nuestra perdición (y se informa que viene tecnología aún más sofisticada).

De hecho, aunque los grandes usuarios dicen que no es tan inteligente el ChatGPT, modelo que OpenAI puso a disposición del público en general la semana pasada, es tan capaz de responder preguntas como una persona, que los profesionales de una variedad de industrias están luchando para procesar las implicaciones. Los educadores, por ejemplo, se preguntan cómo podrán distinguir la escritura original de los ensayos generados algorítmicamente que están obligados a recibir, y eso puede evitar el software antiplagio.

Paul Kedrosky no es un educador per se, es un economista, capitalista de riesgo y miembro del MIT que se llama a sí mismo un «normal frustrado con una inclinación por pensar en los riesgos y las consecuencias no deseadas en los sistemas complejos». Pero él está entre aquellos que de repente están preocupados por nuestro futuro colectivo, en Twitter comentó: «lástima que OpenAI haya lanzado esta bomba nuclear de bolsillo sin restricciones en una sociedad que no estaba preparada”. Escribió Kedrosky: “Obviamente siento que ChatGPT (y los de su tipo) deberían retirarse de inmediato. Y, si alguna vez se vuelve a introducir, solo sea con estrictas restricciones”.

Sobre algunas de las preocupaciones de Kedrosky y por qué cree que OpenAI está impulsando lo que cree que es el «cambio más disruptivo que la economía de EE. UU. ha visto en 100 años», y no en el buen sentido.

Pregunta: ChatGPT al mercado. ¿Qué provocó su reacción en Twitter?

PK: He jugado con estas interfaces de usuario conversacionales y servicios de inteligencia artificial en el pasado y esto obviamente es un gran salto más allá. Y lo que me preocupó aquí en particular es la brutalidad casual de la misma, con consecuencias masivas para una serie de actividades diferentes. No son solo los más obvios, como la escritura de ensayos de la escuela secundaria, sino en casi cualquier dominio donde hay una gramática, es decir, una forma organizada de expresarse. Eso podría ser ingeniería de software, ensayos de secundaria, documentos legales. Todos ellos son fácilmente comidos por esta bestia voraz y escupidos de nuevo sin compensación a lo que sea que se haya usado para entrenarlo.

Escuché de un colega de UCLA que me dijo que no tienen idea de qué hacer con los ensayos al final del período actual, donde obtienen cientos por curso y miles por departamento, porque ya no tienen idea de lo que es falso y lo que no. Entonces, hacer esto tan casualmente, como alguien me dijo hoy, es una reminiscencia del llamado hacker de sombrero blanco que encuentra un error en un producto ampliamente utilizado, luego informa al desarrollador antes de que el público en general lo sepa para que el desarrollador pueda parchear su producto y no tengamos una devastación masiva y las redes eléctricas se caigan. Esto es lo contrario, donde un virus ha sido liberado en la naturaleza sin preocuparse por las consecuencias.

Ptegunta: Siente como si pudiera comerse el mundo.

Algunos podrían decir: ‘Bueno, ¿fue de la misma manera cuando llegó la automatización a las plantas automotrices y los trabajadores automotrices se quedaron sin trabajo? Pero esto es muy diferente. Estas tecnologías de aprendizaje específicas son autocatalizadoras; están aprendiendo de las solicitudes. Entonces, los robots en una planta de fabricación, aunque disruptivos y crearon consecuencias económicas increíbles para las personas que trabajan allí, no se dieron la vuelta y comenzaron a absorber todo lo que pasaba dentro de la fábrica, moviéndose sector por sector, mientras que eso no es exactamente lo que podemos esperar, puede pasar.

Pregunta: Musk dejó OpenAI parcialmente por desacuerdos sobre el desarrollo de la empresa, dijo en 2019, y lleva mucho tiempo hablando de la IA como una amenaza existencial. Pero la gente se quejó de que no sabía de lo que estaba hablando. Ahora nos enfrentamos a esta poderosa tecnología y no está claro quién interviene para abordarla.

Creo que va a comenzar en un montón de localizaciones a la vez, la mayoría de los cuales serán muy torpes, y la gente se burlará de ellos. Pero lamentablemente, nos hemos metido en esto en algo con amplias consecuencias. Entonces, de la misma manera que la FTC exigió que las personas que publicaran blogs hace años tener enlaces de afiliados y ganar dinero con ellos, creo que a un nivel trivial, las personas se verán obligadas a revelar que ‘No escribimos nada de esto. Todo esto es generado por una máquina’.

También creo que vamos a ver nuevos argumentos para la demanda en curso contra Microsoft y OpenAI por infracción de derechos de autor en el contexto de nuestros algoritmos de aprendizaje automático en formación. Creo que va a haber un problema más amplio que el DMCA (Digital Millennium Copyright Act, 1998) con respecto a este servicio.

Y creo que existe el potencial para demandas y acuerdos parciales con respecto a las consecuencias de los servicios, que, como saben, probablemente tomará demasiado tiempo y no ayudará a suficientes personas, pero no veo cómo no acabaremos con respecto a estas tecnologías.

Pregunta: ¿Cuál es el pensamiento en el MIT?

Andy McAfee y su grupo allí son más optimistas y tienen una visión más ortodoxa de que cada vez que vemos una interrupción, se crean otras oportunidades, las personas son móviles, se mueven de un lugar a otro y de una ocupación a otra, y no deberíamos estar tan obstinados que creemos que esta evolución particular de la tecnología es aquella en torno a la cual no podemos mutar y migrar. Y creo que eso es en general cierto.

Pero la lección de los últimos cinco años en particular ha sido que estos cambios pueden llevar mucho tiempo. El libre comercio, por ejemplo, es una de esas experiencias increíblemente perturbadoras para toda la economía, y todos nos dijimos a nosotros mismos como economistas que observamos esto que la economía se adaptará y la gente en general se beneficiará de precios más bajos. Lo que nadie anticipó fue que alguien organizaría a toda la gente enojada y elegiría a Donald Trump. Así que existe la idea de que podemos anticipar y predecir cuáles serán las consecuencias, pero no podemos.

Pregunta: Comentó sobre la redacción de ensayos para la escuela secundaria y la universidad. Ya surgen preguntados, teóricas, si sería plagio usar ChatGPT para escribir un artículo.

El propósito de escribir un ensayo es demostrar que puedes pensar, por lo que esto hace un cortocircuito en el proceso y anula el propósito. Nuevamente, en términos de consecuencias y externalidades, si no podemos dejar que las personas tengan deberes porque ya no sabemos si están copiando o no, eso significa que todo tiene que suceder en el salón de clases y debe ser supervisado. No puede haber nada que nos llevemos a casa. Se deben hacer más cosas por vía oral, y ¿qué significa eso? Significa que la escuela es  mucho más cara, mucho más artesanal, mucho más pequeña y en el momento exacto en que estamos tratando de hacer lo contrario. Las consecuencias para la educación superior son devastadoras en cuanto a la prestación real de un servicio.

¿Qué opina de la idea de la renta básica universal, o permitir que todos participen en la ganancias de la IA?

Soy un defensor mucho menos fuerte de lo que era antes de COVID. La razón es que COVID, en cierto sentido, fue un experimento con un ingreso básico universal. Le pagamos a la gente para que se quedara en casa y se les ocurrió QAnon. Así que estoy muy nervioso por lo que sucede cuando las personas no tienen que subirse a un auto, conducir a algún lado, hacer un trabajo que odian y volver a casa otra vez, porque el diablo encuentra trabajo para las manos ociosas, y habrá mucho de manos ociosas y mucha diablura.

RELACIONADOS

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

La moderación de comentarios está activada. Su comentario podría tardar cierto tiempo en aparecer.

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

SUSCRÍBETE A TRPLANE.COM

Publica en TRPlane.com

Si tienes alguna historia interesante sobre transformación, IT, digital, etc con cabida en TRPlane.com por favor envíanosla y la compartiremos con toda la Comunidad

MÁS PUBLICACIONES

Activar Notificaciones OK No gracias