
El siguiente es un resumen del audiolibro «What happens next? Conversations from MARS».
Chapter 1: Going to MARS.* (Camino a MARS)
* En inglés "Mars" es Marte, por lo que la frase es un juego de palabras.
M.A.R.S. son las siglas de Machine Learning (Aprendizaje de Máquinas), Automation (Automatización), Robotics (Robótica) y Space Exploration (Exploración Espacial). Se trata de un evento anual organizado desde 2016 con absoluto secretismos por Jeff Bezos, el dueño de Amazon, al que solo se asiste por invitación. Con los años, este evento que reúne brillantes mentes selectas – sean científicos, ingenieros o artistas – se vuelve más público. La invitación para este 2019 ya esta abierta. Su objetivo es compartir e intercambiar conocimientos, inspirar y discutir sobre el futuro y los grandes problemas de la humanidad.

Adam Savage, quien dirige el relato y es famoso por su conducción en Cazadores de Mitos (MythBusters), introduce el capítulo hablando de los trajes que presentará como invitado al evento. Se tratan, en su mayoría, de réplicas de trajes espaciales tanto de misiones reales como de películas de ciencia ficción: «2001: Odisea del espacio» y «Alien». Para Adam, cada traje y su diseño está impregnado de humanidad porque es un reflejo de la creatividad de nuestra especie.
Chapter 2: Encode Your Best Life. (Codifica tu mejor vida)

Pedro Domingos, profesor de ciencias de la computación en la Universidad de Washington y autor del libro «The Master Algorithm», nos dice que no hay razón para ceder a los miedos de que estamos perdiendo el control sobre la tecnología (como cuando vemos escándalos del tipo Cambridge Analytica). Como ejemplo, nos habla del Aprendizaje de Máquina (Machine Learning), un campo de la Inteligencia Artificial (I.A.), que con frecuencia pasa desapercibido pero ya forma parte de nuestras vidas en campos hasta insospechados. El miedo de que en algún momento, al estilo Skynet, alguna I.A. se vuelva autoconsciente y tome el control del mundo resulta demasiado remoto porque la I.A. dista mucho de parecerse a la mente humana y por tanto dicho escenario está tan lejano que resulta improbable.
Si hay algo que en verdad representa una preocupación, eso serían los objetivos humanos a los que sirven las I.A.s actuales. Un chatbot de Microsoft tiene que ser apagado después de un día de funcionar por volverse «racista». Su «conducta» no es producto de una rebelión sino un objetivo definido por sus creadores: aumentar su visibilidad en Twitter. Cosa que el algoritmo consiguió con sus encendidos comentarios. Los algoritmos de Amazon te recomiendan productos porque quieren maximizar ventas, los de Facebook quieren que pases más tiempo en su red. Si un adulto se engancha, ¿qué se puede esperar de un niño que no consigue desprenderse de un videojuego? El problema no es la IA, el problema somos nosotros.
Entonces, ¿podríamos definir mejores objetivos para las I.A.s? Sí. Podemos definir objetivos personales tales como aumentar la cognición, la curiosidad y la empatía. Podríamos definir mejores objetivos como sociedad. Y eso es justamente lo que están haciendo gente como Mickey McManus, un investigador de la compañía Autodesk (la empresa detrás de 3D MAYA) y Kate Compton, quien se define así misma como una extraña futurista, y está muy interesada en que en el futuro los algoritmos trabajen para nuestro bien y jueguen roles de entrenadores de vida, maestros y guías. Visto desde esa óptica, los algoritmos con los objetivos correctos, trabajarían para nuestro bien.
Chapter 3: Technology Is a Superpower. (La tecnología es un superpoder)

Dava Newman trabaja en un traje espacial que resulte en una mejor experiencia para astronauta y que sea lo más parecido a la ropa. Si tan solo pensamos que debe resistir la presión, el reto es enorme; sin embargo, de conseguirlo sus aplicaciones no estarían limitadas al espacio exterior, podrían tener aplicaciones en los deportes, podrían convertirse en nuestra ropa diaria o podrían ayudarnos a ser una especie de superhéroes.

Pero los avances no se limitan al campo físico, sino también a la mente y el ayudarle a aprender más rápido. Oren Etzioni, el director ejecutivo del Instituto Allen (por Paul Allen, co fundador de Microsoft) y cuyo lema es «AI for the common good» (IA para el bien común), nos habla del proyecto Semantic Scholar que es un servicio inteligente de búsqueda de artículos científicos que combina Aprendizaje de Máquina, procesamiento del lenguaje natural, Visión de Máquina (Machine Vision) y análisis semático para mejorar los resultados de búsqueda.
Chapter 4: The Problem With A.I. Might Be Us. (El problema con la I.A. podríamos ser nosotros)
Dice Kate Compton que cuando le gente intenta definir la I.A. explica algo que suele estar «entre un martillo y un ejército de abejas». Quizá nuestro problema radica en que la hemos atropomorfizado tanto, pero la I.A. es joven y resulta apresurado decir en qué se convertirá. Pedro Domingos añade que en varios campos las computadoras ya son más inteligentes que nosotros y eso no es necesariamente malo, sino lo contrario. Al hablar de velocidad, el hombre no va por la vida intimidado de que un caballo le supere. En realidad, por años utilizamos dicha ventaja para nuestro beneficio. De igual forma, las I.A.s nos han superado hoy en la resolución de ciertos problemas pero esto, en vez de ser una competencia, ha sido un trabajo en equipo y eso es bueno.

Lo que si debe quedarnos claro es que somos nosotros los que definimos los objetivos y que si queremos robots asesinos, entonces los tendremos. En el futuro inmediato los problemas más preocupantes con respecto a la I.A. son los relacionados con la privacidad, la pérdida de trabajos por la automatización y los algoritmos sesgados (prejuicios humanos traducidos a código sea de manera voluntaria o involuntaria). Algunos han sugerido organismos parecido al FBI que regulen y revisen algoritmos, pero ¿quién tendría el control de dichos organismos? Ni la iniciativa privada, ni el gobierno parecen buenos candidatos. A esto habría que agregar que dado que como humanos no hemos logrado ponernos de acuerdo en un comportamiento ético universal, difícilmente podemos esperar que eso mismo suceda en los algoritmos. En conclusión, el futuro de estas tecnologías depende enteramente de nosotros.