Cuando Elon Musk anunció el equipo detrás de su nueva empresa de inteligencia artificial xAI, cuya misión supuestamente es “comprender la verdadera naturaleza del universo”, subrayó la importancia crítica de responder a las preocupaciones existenciales sobre las promesas y los peligros de la IA.
Si la empresa recién formada realmente puede alinear su comportamiento para reducir los riesgos potenciales de la tecnología, o si su único objetivo es obtener una ventaja sobre OpenAI, su formación plantea preguntas importantes sobre cómo las empresas deberían responder realmente a las preocupaciones sobre la IA. Específicamente:
- ¿Quién internamente, especialmente en las empresas modelo más grandes, se hace realmente preguntas sobre los impactos a corto y largo plazo de la tecnología que están construyendo?
- ¿Están abordando los problemas con una perspectiva y experiencia adecuadas?
- ¿Están equilibrando adecuadamente las consideraciones tecnológicas con las cuestiones sociales, morales y epistemológicas?
Se puede imaginar, hasta ahora, como dos salones. En uno de ellos, con personas que piensan profundamente sobre ética (“¿Qué está bien y qué está mal?”), ontología (“¿Qué hay realmente?”) y epistemología (“¿Qué sabemos realmente?”). En el otro, gente que hace algoritmos, códigos y matemáticas.
Esta combinación no es tan inarmónica en el contexto de cómo las empresas deben pensar en la IA. Lo que está en juego en el impacto de la IA es existencial, y las empresas deben asumir un compromiso auténtico digno de esos riesgos.
La IA ética requiere una comprensión profunda de lo que hay, lo que queremos, lo que creemos saber y cómo se desarrolla la inteligencia.
Esto significa dotar a los equipos de liderazgo de elementos que estén adecuadamente equipados para analizar las consecuencias de la tecnología que están construyendo, lo que va más allá de la experiencia natural de los ingenieros que escriben código y refuerzan las API.
La IA no es un desafío exclusivamente informático, de neurociencia o de optimización. Es un desafío humano. Para abordarlo, debemos adoptar una versión duradera de una “reunión de mentes sobre IA”, equivalente en alcance a El encuentro interdisciplinario de Oppenheimer en el desierto de Nuevo México a principios de los años 1940.
La colisión del deseo humano con las consecuencias no deseadas de la IA da como resultado lo que los investigadores denominan el “problema de alineación”, descrito por expertos en Brian cristiano del libro “El problema de la alineación”. Esencialmente, las máquinas tienen una manera de malinterpretar nuestras instrucciones más completas y nosotros, como sus supuestos amos, tenemos un pobre historial de lograr que comprendan completamente lo que creemos que queremos que hagan.
El resultado neto: los algoritmos pueden promover el sesgo y la desinformación y, por lo tanto, corroer el tejido de nuestra sociedad. En un escenario más distópico a largo plazo, pueden tomar la decisión “giro traicionero” y los algoritmos a los que hemos cedido demasiado control sobre el funcionamiento de nuestra civilización nos superan a todos.
A diferencia del desafío de Oppenheimer, que era científico, la IA ética requiere una comprensión profunda de lo que existe, lo que queremos, lo que creemos saber y cómo se desarrolla la inteligencia. Se trata de una tarea de naturaleza ciertamente analítica, aunque no estrictamente científica. Requiere un enfoque integrador arraigado en el pensamiento crítico tanto de las humanidades como de las ciencias.
Pensadores de diferentes campos necesitan trabajar en estrecha colaboración, ahora más que nunca. El equipo ideal para una empresa que busca hacer esto realmente podría llegar a ser:
- Jefe de IA y ética de datos: Esta persona abordaría problemas a corto y largo plazo con datos e IA, incluidos, entre otros, la articulación y adopción de principios éticos de datos, el desarrollo de arquitecturas de referencia para su uso ético, los derechos de los ciudadanos con respecto a cómo se consumen sus datos y utilizado por la IA, y protocolos para moldear y controlar adecuadamente el comportamiento de la IA. Este debería estar separado del director de tecnología, cuya función es en gran medida ejecutar un plan tecnológico en lugar de abordar sus repercusiones. Es un puesto de alto nivel en el personal del CEO que cierra la brecha de comunicación entre los tomadores de decisiones internos y los reguladores. No se puede separar a un especialista en ética de datos de un jefe de ética en IA: los datos son la condición previa y el combustible para la IA. La propia IA genera nuevos datos.
- Arquitecto filósofo jefe: Este rol abordaría las preocupaciones existenciales a largo plazo con un enfoque principal en el “Problema de alineación”: cómo definir salvaguardias, políticas, puertas traseras y interruptores de apagado para que la IA se alinee en la mayor medida posible con las necesidades y objetivos humanos. .
- Neurocientífico jefe: Esta persona abordaría cuestiones críticas sobre la sensibilidad y cómo se desarrolla la inteligencia dentro de los modelos de IA, qué modelos de cognición humana son más relevantes y útiles para el desarrollo de la IA y qué puede enseñarnos la IA sobre la cognición humana.
Fundamentalmente, para convertir el resultado del equipo de ensueño en tecnología responsable y efectiva, necesitamos tecnólogos que puedan traducir conceptos abstractos y preguntas planteadas por “Los Tres” en software que funcione. Como ocurre con todos los grupos de tecnología que trabajan, esto depende del líder/diseñador del producto que ve el panorama completo.
Una nueva generación de líderes de productos inventivos en la “Era de la IA” debe moverse cómodamente a través de nuevas capas de infraestructuras tecnológicas que abarcan la infraestructura modelo para la IA, así como nuevos servicios para aspectos como el ajuste y el desarrollo de modelos patentados. Deben ser lo suficientemente inventivos para imaginar y diseñar flujos de trabajo “Human in the Loop” para implementar salvaguardias, puertas traseras e interruptores de apagado según lo prescrito por el arquitecto filósofo jefe. Necesitan tener la capacidad de un ingeniero renacentista para traducir las políticas y protocolos del jefe de inteligencia artificial y de ética de datos en sistemas que funcionen. Necesitan apreciar los esfuerzos del neurocientífico jefe por moverse entre máquinas y mentes y discernir adecuadamente los hallazgos con el potencial de dar lugar a una IA más inteligente y responsable.
Miremos a OpenAI como uno de los primeros ejemplos de una empresa modelo fundamental, extremadamente influyente y bien desarrollada que lucha con este desafío de personal: tienen una el científico en jefe (quien también es su cofundador), un jefe de política global y un Consejero general.
Sin embargo, sin los tres puestos descritos anteriormente en puestos de liderazgo ejecutivo, las preguntas más importantes en torno a las repercusiones de su tecnología siguen sin resolverse. Si Sam Altman está preocupado en cuanto a abordar el tratamiento y la coordinación de la superinteligencia de una manera amplia y reflexiva, construir una alineación holística es un buen punto de partida.
Tenemos que construir un futuro más responsable en el que las empresas sean administradores confiables de los datos de las personas y en el que la innovación impulsada por la IA sea sinónimo de bien. En el pasado, los equipos legales llevaban el agua en temas como la privacidad, pero los más brillantes reconocen que no pueden resolver por sí solos los problemas del uso ético de datos en la era de la IA.
Llevar perspectivas diferentes y de mentalidad amplia al lugar donde se toman las decisiones es la única manera de lograr datos éticos e inteligencia artificial al servicio del florecimiento humano, manteniendo las máquinas en su sitio.