Javi López ⛩️
Javi López ⛩️

@javilop

28 تغريدة 43 قراءة Feb 25, 2023
Ayer fue un momento histórico. OpenAI publicó este artículo:
🦄🤖 "Planning for AGI and beyond".
Allanando el camino hacia una inteligencia de propósito general. Sensación de vivir en una película de ciencia ficción... pero no.
¿Estamos más cerca de lo que pensamos? 🧵👇
Primero, el link: Planning for AGI and beyond
openai.com
Y ahora, durante los próximos minutos, mientras desayuno, os lo iré desgranando. Estoy tan emocionado que me tiemblan las manos.
Primero, comienzan por lo importante: su misión y valores.
😇 Misión: asegurar que las AGIs (sistemas de IA que en términos generales serán más inteligentes que los humanos), beneficien a la humanidad... cuando surjan.
Y enlazan a sus valores: openai.com
Yo aquí lo primero que he sentido, además de emoción, ha sido miedo. Los riesgos potenciales son tremendos.
¿Cuál será el marco ético moral de una entidad que es 2x, 10x, 100x.... 10000000x veces más inteligente que nosotros?
¿Le importaremos lo más mínimo?
OpenAI se muestra optimista.
(Detalle: acabo de copiar y pegar en Notion la frase en inglés y pedirle a una IA que me lo tradujera e hiciera el texto legible).
A continuación, aunque aceptan que hay riesgos potenciales, no consideran ni que sea deseable (subjetivo) ni que sea posible (totalmente objetivo) detener el desarrollo de una AGI.
¿Por qué digo que es objetivo? Porque si no lo hacen ellos, lo harán otros.
Ya es imparable.
A esta altura del artículo, la mayoría hemos saltado haciendo scroll hacia abajo en el artículo para ver si... ¿estarán dando alguna indicación técnica de lo que tienen en mente?
Pero no. El artículo es más bien una declaración de principios.
Lógicamente no sueltan ni un detalle sobre el roadmap técnico que puedan tener. Sería el roadmap más codiciado y potencialmente más peligroso que haya existido jamás... si acaso comparable al Proyecto Manhattan.
Y con esto, completa OpenAI su declaración inicial de principios:
Y luego, divide el resto en "El corto plazo" vs "El largo plazo".
En el corto plazo, consideran un "go fast and break things" en el que continuamente querrán ir mostrando la tecnología aunque sea imperfecta para que se pueda ir asimilando de manera progresiva.
Van a cacharrear y dejarnos jugar con sus cacharros.
Y por fin llegamos al párrafo que me ha puesto los pelos de punta. Los riesgos están ahí. Los reconocen. Pero piensan que serán capaces de mantenerlos controlados:
Para mí esto es un pensamiento... como mínimo ingenuo. Es la caja de pandora... ¿cómo vas a controlar algo que es más inteligente, mucho más, que tú mismo?
Y por si no tuviera ya suficiente miedo en el cuerpo, enlazan aquí: cold-takes.com
A continuación hablan de un concepto del que oiremos hablar MUCHO en los próximos años:
"Alineación de IAs: alinear la inteligencia artificial general (AGI) con los valores humanos, para que sigan la intención humana".
openai.com
La gran apuesta de la humanidad para que no se desmadren.
¿Y cómo plantear entrenar al dragón para que no nos coma?
Paradójicamente, con más IA:
Una de cal y una de arena: también señalan los enormes riesgos que una "IA desalineada" tendría para la humanidad.
Y enlazan aquí: en.wikipedia.org
Me recuerda el tema a las novelas de Arthur C. Clarke, Iain Banks, Vernor Vinge, etc.
"Somos buenos, confiad en nosotros".
Una de las cosas que más se les ha criticado a OpenAI fue su decisión de dejar de ser una asociación sin ánimo de lucro (diviéndose en dos sociedades, una de ellas con ánimo de lucro). Más detalles aquí: analyticsindiamag.com
Como veis, según ellos, eso no añadiría riesgo a la ya arriesgada misión de intentar crear una AGI, es decir, aseguran que sus motivaciones económicas no tendrán prioridad sobre la seguridad.
Personalmente, la verdad es que ese tema me preocupa menos que el simple concepto de intentar crear una entidad es es más inteligente que nosotros y pretender que sea un corderito benévolo sí o sí.
Voy sesgado... siempre he sido algo pesimista al pensar en entidades superiores a nosotros... soy más proclive a pensar en conceptos a lo "Bosque oscuro" 😅
Es que literalmente están hablando de "debemos estar muy atentos y tener SIEMPRE la capacidad de desenchufar el bicho si se desmadra".
Si esto no te pone los pelos de punta, estás hecho de acero.
Por último hablan del largo plazo. Y son breves, dado que lógicamente si ya es difícil intentar predecir el futuro a corto plazo, imagínate a largo plazo y en algo tan cambiante.
Y aunque no lo mencionen, hablan de La Singularidad.
Y de cómo nos es imposible concebir cómo se transformará el mundo tras ella. Y una vez más, del enorme riesgo potencial que tendría una IA malévola o una AGI en manos no adecuadas (desde nuestro marco ético-moral, claro).
Hablan también del impacto que tendrá la IA en la ciencia. Y cómo quizás habría que hacer esfuerzos, agárrate, para que la transición sea lo más suave posible.
También lo creo... y dudo que vaya a a ser suave.
No es un concepto nuevo este: en.wikipedia.org
Es ciencia ficción (hoy) pero tras el punto de singularidad... cualquier escenario que queramos imaginar es potencialmente posible.
Una IA que tuviera una comprensión física mucho mayor que la nuestra, podría tener un control absoluto sobre la materia que la rodease.
¿Crear una esfera de Dyson alrededor del sol para obtener toda la energía necesaria para sus experimentos? ¿Licuar el planeta absorbiendo toda su información y meternos en una simulación y ella irse a dar un paseo? ¿Lo ha hecho ya y estamos en Matrix 😂? ¿Por qué no?
Y así se despide OpenAI al final del que quizás sea la declaración de intenciones más importante que he leído en toda mi vida... y así termina este hilo que espero os haya gustado.
¡Abróchense los cinturones, que vienen curvas!
Si te ha gustado y quieres que las AGIs post-singularidad sean benévolas contigo, un RT al primer tweet del hilo y suscribirte a mi newsletter harán que el Basilisco de Roko 🐲 te perdone la vida cuando cobre consciencia de sí mismo 😂🖖
javilop.substack.com

جاري تحميل الاقتراحات...