Nick Bostrom

filósofo

Nick Bostrom (en sueco, Niklas Boström) es un filósofo sueco de la Universidad de Oxford, nacido en 1973. Es conocido por sus trabajos sobre el principio antrópico, el riesgo existencial, la ética sobre el perfeccionamiento humano, los riesgos de la superinteligencia y el consecuencialismo. Obtuvo un PhD en la Escuela de Economía y Ciencia Política de Londres en el año 2000. En 1998, Bostrom cofundó junto a David Pearce la Asociación Transhumanista Mundial.

Nick Bostrom
Información personal
Nombre de nacimiento Niklas Boström
Nacimiento 10 de marzo de 1973 (51 años)
Helsingborg (Suecia) Ver y modificar los datos en Wikidata
Nacionalidad Suecia
Educación
Educación filósofo Ver y modificar los datos en Wikidata
Educado en Universidad de Gotemburgo, Universidad de Estocolmo
Supervisor doctoral Colin Howson y Craig Callender Ver y modificar los datos en Wikidata
Información profesional
Ocupación Filósofo y profesor universitario Ver y modificar los datos en Wikidata
Área Filosofía, realidad virtual y riesgo existencial Ver y modificar los datos en Wikidata
Empleador Universidad de Oxford Ver y modificar los datos en Wikidata
Movimiento Transhumanismo
Sitio web
Distinciones Professorial Distinction Award de la Universidad de Oxford
FP Top 100 Global Thinkers
Prospect Magazine
Eugene R. Gannon Award

En 2004 cofundó junto a James Hughes el Instituto para la Ética y las Tecnologías Emergentes. En el año 2006, ha sido el director fundador del Future of Humanity Institute en la Universidad de Oxford. FHI es un centro de investigación multidisciplinar único en el que un grupo de investigadores destacados, desde los campos de las matemáticas, la informática, la filosofía, entre otras disciplinas, se unen para trabajar en cuestiones de gran formato para la humanidad.

En 2011 fundó el Programa Oxford Marton Sobre los Impactos de la Tecnología Futurista y es el director fundador del Instituto Futuro de la Humanidad en la Universidad de Oxford.

Es el autor de más de 200 publicaciones,[1]​ incluyendo: Superinteligencia: caminos, peligros, estrategias (2014), un bestseller según New York Times,[2]​ y Sesgo antrópico: efectos de la selección de observación en la ciencia y la filosofía (2002).[3]​ En 2009 y 2015, la revista Foreign Policy lo incluyó en su lista de los 100 pensadores globales destacados.[4][5]​ El trabajo de Bostrom sobre la superinteligencia y su preocupación por el riesgo existencial que la misma representa para la humanidad en el nuevo siglo, ha llegado a influir en el pensamiento de Elon Musk y Bill Gates.[6][7][8]

Biografía editar

Bostrom nació un 10 de marzo de 1973 en Helsingborg, Suecia.[9]​ Desde joven le desagradó la escuela y terminó sus últimos años de instituto aprendiendo en casa, optando por educarse a sí mismo en una gran variedad de disciplinas como antropología, arte, literatura y ciencia.[10]

Obtuvo un B.A. en filosofía, matemáticas, lógica matemática e inteligencia artificial en la Universidad de Gotemburgo y un grado de master en filosofía y física, y neurociencia computacional de la Universidad de Estocolmo y el King's College de Londres respectivamente. Mientras estudiaba en la Universidad de Estocolmo, investigó la relación entre el lenguaje y la realidad estudiando al filósofo analítico Willard Van Orman Quine.[10]​ En el año 2000 ganó un PhD en filosofía en la Escuela de Economía de Londres. Se mantuvo dos años (2000-2002) como educador en la Universidad de Yale.

Bostrom ha dado consejos sobre políticas además de consultorías para un amplio rango de gobiernos y organizaciones. Fue consultor para la Oficina gubernamental de Ciencia del Reino Unido y un miembro experto para la Agenda del Consejo para Riesgos Catastróficos del Foro Económico Mundial. Es un miembro consultor de la junta del Instituto de Investigación de la Inteligencia de las Máquinas, el Instituto para el Futuro de la Vida, el Instituto de Preguntas Fundacionales en física y cosmología, y un consultor externo para el Centro para el Estudio del Riesgo Existencial de Cambridge.[11]

Filosofía editar

Riesgo existencial editar

Un aspecto importante de las investigaciones de Bostrom se enfoca en el futuro de la humanidad y en los resultados a largo plazo.[12][13]​ Introdujo el concepto de "riesgo existencial", el cual define como el riesgo de que "un resultado adverso pudiera bien devastar el origen de la vida inteligente en la Tierra o bien restringir su potencial permanente y drásticamente".

Bostrom desde posiciones transhumanistas advierte sobre los riesgos que esta puede traer y los nombra como riesgos existenciales. Además menciona algunos de los riesgos existenciales (aquellos que tienen que ver con la acción humana)

  • Mal uso de las tecnologías.
  • Guerras nucleares.
  • Pandemias.
  • Aristocracia posthumana.
  • Mala programación de una superinteligencia.
  • Superinteligencia autónoma que asume los valores de poder.
  • Criogenización y superpoblación.
  • Control del estado, de instituciones, ONG, movimientos religiosos, etc. Que no permitan ciertas aplicaciones para el mejoramiento humano (transhumanidad).
  • Dificultades tecnológicas. Que la transhumanidad no se pueda llevar a la práctica.
  • Agotamiento de los recursos naturales antes de que puedan ser creados artificialmente.

Y reconoce como uno de los mayores riesgos, el mal uso de la tecnología, con fines hegemónicos, el consumismo y el militarismo entre otros factores, ha traído como consecuencia, la contaminación, la degradación de los ecosistemas y el agotamiento de los recursos. En el mal uso de las tecnologías, también se considera los errores humanos, que un virus se escape de un laboratorio.

En el libro Riesgo catastrófico global (2008), los editores Nick Bostrom y Milan Ćirković caracterizaron la relación entre el riesgo existencial y la cada vez más amplia gama de riesgos catastróficos de talla global, y relacionaron el riesgo existencial con los efectos de la selección del observador[14]​ y la paradoja de Fermi.[15][16]​ En un escrito de 2013 para el periódico Global Policy, Bostrom ofrece una taxonomía del riesgo existencial y propone una reconceptualización de sustantibilidad en términos dinámicos: como una trayectoria para el desarrollo destinada a minimizar el riesgo existencial.[17]

En 2005, Bostrom fundó el Instituto del Futuro de la Humanidad , que investiga el futuro lejano de la civilización humana. También es asesor del Centro para el Estudio del Riesgo Existencial.

Superinteligencia editar

En su libro Superinteligencia: caminos, peligros, estrategias (2014), Nick Bostrom define a la superinteligencia como "un intelectual que es mucho más listo que los mejores cerebros humanos prácticamente en cualquier campo, incluyendo la creatividad científica, sabiduría general y habilidades sociales.", además razona que con "un desempeño cognitivo excediendo enormemente el de los humanos en virtualmente todos los dominios de interés", los agentes superinteligentes podrían prometer beneficios sustanciales para la sociedad, pero plantear un significativo riesgo existencial. Por lo tanto, Bostrom asegura que es crucial que abordemos el campo de la inteligencia artificial con precaución y tomemos medidas activas para mitigar el riesgo que enfrentamos.

En su libro también menciona que el verdadero reto no está tanto en la inteligencia que sean capaces de alcanzar las máquinas, sino en el desarrollo moral de nuestra especie. Al final, como ya postuló Jean-Paul Sartre, estamos condenados a ser libres. Y eso puede ser peligroso, pero también una excelente oportunidad para dar otro salto evolutivo.

La aceleración de las tecnologías se seguirá incrementando hasta llegar a un punto que escapa a las capacidades de los humanos (singularidad tecnológica). Se puede lograr una inteligencia artificial por fuerza bruta, o sea que dada la velocidad de la máquina pueda analizar exhaustivamente todas las posibles soluciones. Este es el caso del ajedrez, la inteligencia de la máquina se basa en su velocidad para calcular las variantes, lo cual le permite prever lo que puede suceder en el tablero.

Carta abierta editar

En enero de 2015, Nick Bostrom, Stephen Hawking, Max Tegmark, Elon Musk, Martin Rees y Jaan Tallinn, entre otros, firmaron una carta abierta de parte del Instituto para el Futuro de la Vida advirtiendo sobre los potenciales peligros de la inteligencia artificial, en la cual reconocían que "es importante y oportuno investigar cómo desarrollar sistemas de inteligencia artificial que sean sólidos y beneficiosos, y que existen direcciones de investigación concretas que pueden ser perseguidas hoy en día."[18][19]​ En vez de avisar de un desastre existencial, la carta pide más investigación para cosechar los beneficios de la IA "al mismo tiempo que se evitan los posibles contratiempos".

Esta carta está firmada no solo por personas no relacionadas con la IA como Hawking, Musk y Bostrom, sino también por importantes investigadores en computación (entre ellos Demis Hassabis, uno de los principales investigadores en IA), ya que después de todo, si desarrollan una inteligencia artificial que no comparte los mejores valores humanos, significará que no fueron lo suficientemente inteligentes como para controlar sus propias creaciones.

Razonamiento antrópico editar

Bostrom ha publicado numerosos artículos sobre razonamiento antrópico, así como el libro Sesgo antrópico: efectos de la selección de observación en la ciencia y la filosofía, en el cual critica las formulaciones previas sobre el principio antrópico, incluyendo las de Brandon Carter, John Leslie, John Barrow y Frank Tipler.[20]

Bostrom cree que el mal manejo de la información indicativa es una falla común en muchas áreas de la indagación (incluyendo cosmología, filosofía, teoría de la evolución, teoría de juegos y física cuántica) y argumenta que es necesaria una teoría antrópica para lidiar con estas. Bostrom introdujo el "supuesto de auto-prueba" y el "supuesto de auto-indicación" y mostró cómo ambos llevan a diferentes conclusiones en un número de casos, señalando que, en ciertos experimentos del pensamiento, cada uno de ellos es afectado por paradojas o implicaciones contraintuitivas. Él sugirió que para poder avanzar habría que extender el supuesto de auto-prueba hacia un "fuerte supuesto de auto-prueba", el cual reemplaza a los "observadores" por "momentos del observador", lo cual permitiría que la clase de referencia sea relativizada (y creó una expresión para esto en la "ecuación de la observación").

En trabajos posteriores, describió el fenómeno de la "sombra antrópica", un efecto de la selección de observación que impide a los observadores observar cierto tipo de catástrofes en su pasado geológico y evolutivo reciente.[21]​ Los tipos de catástrofes que se hallan en la sombra antrópica tienden a ser infravalorados a menos que se hagan correcciones estadísticas.

Ética del perfeccionamiento humano editar

Bostrom se muestra a favor de alcanzar el "perfeccionamiento humano", o la "automejora y la perfectibilidad humana a través de la ética aplicación de la ciencia",[22][23]​ a su vez que crítica a las posturas que son bio-conservadoras.[24]

Propuso, junto al filósofo Toby Ord, la prueba inversa. Dado el sesgo irracional del statu quo humano, ¿cómo puede uno distinguir entre la crítica válida hacia los cambios propuestos en una cualidad humana y la crítica motivada por la resistencia al cambio? La prueba inversa intenta resolver esto preguntando si sería bueno alterar dicha cualidad en la dirección opuesta.[25]

En 1998 Bostrom cofundó juntó al filósofo David Pearce la Asociación Transhumanista Mundial,[22]​ hoy llamada Humanity+. En 2004 cofundó junto al sociólogo James Hughes el Instituto para la Ética y las Tecnologías Emergentes, aunque actualmente ya no se involucra en ninguna de estas organizaciones.

En 2009, la revista Foreign Policy mencionó a Bostrom en su lista sobre pensadores globales, por "no aceptar límites en el potencial humano".[26]

Humanity Plus (Asociación Transhumanista Mundial) editar

Humanity Plus, conocida anteriormente como Asociación Transhumanista Mundial, fundada originalmente por Nick Bostrom y David Pearce, es un movimiento cultural e intelectual internacional que tiene como objetivo final transformar la condición humana mediante el desarrollo y fabricación de tecnología ampliamente disponibles, que a su vez también mejoren las capacidades humanas, tanto a nivel físico como psicológico o intelectuales , basadas en la nanotecnología, en la ingeniería genética y en la cibernética.

Humanity Plus es una organización sin fines de lucro que trabaja para promover la discusión de las posibilidades de mejora radical de las capacidades humanas por medio de las tecnologías. Muchos teóricos y partidarios del transhumanismo buscan aplicar la razón, la ciencia y la tecnología para reducir la pobreza, las enfermedades, las discapacidades y la malnutrición en todo el mundo, el transhumanismo se distingue en su enfoque particular en la aplicación de las tecnologías para la mejora de los cuerpos humanos de forma individual.

Humanity Plus tiene distintos objetivos, aquellos son:

  1. Apoyar la discusión y la conciencia pública de las tecnologías emergentes .
  2. Defender el derecho de las personas en sociedades libres y democráticas a adoptar tecnologías que expandan las capacidades humanas
  3. Anticipar y proponer soluciones para las consecuencias potenciales de las nuevas tecnologías.
  4. Alentar y apoyar activamente el desarrollo de tecnologías emergentes que se considere que tienen un beneficio positivo suficientemente probable

Estrategia tecnológica editar

Bostrom ha sugerido que una política tecnológica dirigida a reducir el riesgo existencial debería buscar influenciar el orden en el que varias capacidades tecnológicas son conseguidas, proponiendo el principio del desarrollo tecnológico diferencial. Este sostiene que los humanos deberíamos retrasar el desarrollo de tecnologías peligrosas, particularmente de aquellas que elevan el riesgo existencial, y acelerar el desarrollo de tecnología beneficiosas, particularmente aquellas que nos protegen del riesgo existencial que recae en la naturaleza o en otras tecnologías.

Argumento de la simulación editar

El argumento de la simulación de Bostrom propone que al menos uno de los siguientes enunciados es verdad:

  1. La fracción de civilizaciones a un nivel humano que alcanzan un estadio posthumano es muy cercana a cero;
  2. La fracción de civilizaciones posthumanas que se interesan en correr simulaciones sobre ancestros es muy cercana a cero;
  3. La fracción de todas las personas con nuestro tipo de experiencias que se hallan viviendo en una simulación es muy cercana a uno.

Para estimar la probabilidad de al menos una de estas proposiciones, Bostrom ofrece la siguiente ecuación:[27]

 

Donde:

  Es la fracción de todas las civilizaciones humanas que alcanzarán la capacidad tecnológica de programar simuladores de realidad virtual.
  es el número promedio de simulaciones sobre ancestros que corran las civilizaciones representadas por  .
  es el número promedio de individuos que han vivido en una civilización antes de que ésta fuera capaz de correr una simulación de la realidad.
  es la fracción de todos los humanos que viven en realidades virtuales.

N se puede calcular multiplicando la fracción de civilizaciones interesadas en crear dichas simulaciones ( ) por el número de simulaciones corridas por dichas civilizaciones ( ):

  

Por lo tanto la fórmula se convierte en:

 

Ya que el poder de la computación posthumana será mucho mayor,   tendrá un valor muy grande, de modo que al menos una de las siguientes aproximaciones será verdad:

  ≈ 0
  ≈ 0
  ≈ 1

Libros editar

Publicaciones editar

Además de todos sus conocidos libros, Nick Bostrom es conocido por la creación de más de 200 papers los cuales, hablan acerca de distintos temas, como por ejemplo documentos sobre la Naturaleza, Ética, Bioética, Astrofísica, Análisis y otros más.

  • “Information Hazards: A Typology of Potential Harms from Knowledge”, (Traducción alEspañol: Riesgos de información: una tipología de daños potenciales del conocimiento), Review of Contemporary Philosophy, Vol. 10 (2011): pp. 44-79[28]
  • "Existential Risk Reduction as Global Priority”, (Traducción en Español: Reducción del riesgo existencial como prioridad mundial ), Global Policy, Vol. 4, n.º 1 (2013): pp. 15-31.[29]
  • · “Thinking Inside the Box: Using and Controlling an Oracle AI”, (traducción en Español:Pensar dentro de la caja: usar y controlar una IA de Oracle ),Minds and Machines, Vol. 22 n.º 4 (2012): pp. 299-324 (w/ Stuart Armstrong and Anders Sandberg)[30]
  • “In Defense of Posthuman Dignity”, (Traducción al Español: En defensa de la dignidad posthumana)Bioethics, Vol. 19, n.º 3 (2005): pp. 202-214. [Este artículo fue elegido para su inclusión en una antología de los mejores artículos de Bioética publicados en las últimas dos décadas: The Bioethics Reader: Editors' Choice, eds. Ruth Chadwick, Helga Kuhse, Willem A. Landman, Udo Schüklenk, and Peter Singer (Oxford: Wiley-Blackwell, 2007)][31]
  • “The Ethics of Artificial Intelligence”, (Traducción al Español: La ética de la inteligencia artificial), In The Cambridge Handbook of Artificial Intelligence, eds. William Ramsey and Keith Frankish (Cambridge: Cambridge University Press, 2014) (w/ Eliezer Yudkowsky)[32]
  • “Are You Living In A Computer Simulation?”,(Traducción al Español: estás viviendo una simulación de computadora?), Philosophical Quarterly, Vol. 53, n.º 211 (2003): pp. 243-255.[33]
  • “Why I Want to be a Posthuman When I Grow Up”, (Traducción al Español: Por qué quiero ser un posthumano cuando sea grande), In Medical Enhancement and Posthumanity, The International Library of Ethics, Law and Technology series. eds. Bert Gordijn and Ruth Chadwick (Springer, 2008, reprinted in 2010): pp. 107-137.[34]

Referencias editar

  1. OUPblog. «The viability of Transcendence: the science behind the film». Consultado el 16 de octubre de 2014. 
  2. The New York Times. «Best Selling Science Books». Consultado el 19 de febrero de 2015. 
  3. «Nick Bostrom on artificial intelligence». Oxford University Press. 8 de septiembre de 2014. Consultado el 4 de marzo de 2015. 
  4. Frankel, Rebecca. «The FP Top 100 Global Thinkers». Foreign Policy. Consultado el 5 de septiembre de 2015. 
  5. «Nick Bostrom: For sounding the alarm on our future computer overlords.». foreignpolicy.com. Revista Foreign Policy. Consultado el 1 de diciembre de 2015. 
  6. «Forbes». Forbes. Consultado el 19 de febrero de 2015. 
  7. The Fiscal Times. «Bill Gates Is Worried About the Rise of the Machines». Consultado el 19 de febrero de 2015. 
  8. Bratton, Benjamin H. (23 de febrero de 2015). «Outing A.I.: Beyond the Turing Test». The New York Times. Consultado el 4 de marzo de 2015. 
  9. «Nick Bostrom home page». Consultado el 22 de julio de 2014. 
  10. a b Khatchadourian, Raffi (23 de noviembre de 2015). «The Doomsday Invention». The New Yorker XCI (37) (Condé Nast). pp. 64-79. ISSN 0028-792X. 
  11. «nickbostrom.com». Nickbostrom.com. Archivado desde el original el 30 de agosto de 2018. Consultado el 19 de febrero de 2015. 
  12. Bostrom, Nick (Marzo de 2002). «Existential Risks». Journal of Evolution and Technology 9. 
  13. Andersen, Ross. «Omens». Aeon Media Ltd. Archivado desde el original el 18 de octubre de 2015. Consultado el 5 de septiembre de 2015. 
  14. Tegmark, Max; Bostrom, Nick (2005). «Astrophysics: is a doomsday catastrophe likely?» (PDF). Nature 438 (7069). p. 754. PMID 16341005. doi:10.1038/438754a. Archivado desde el original el 3 de julio de 2011. Consultado el 23 de julio de 2016. 
  15. Bostrom, Nick (Mayo-junio de 2008). «Where are they? Why I Hope the Search for Extraterrestrial Life Finds Nothing» (PDF). MIT Technology Review. pp. 72-77. 
  16. Overbye, Dennis (3 de agosto de 2015). «The Flip Side of Optimism About Life on Other Planets». The New York Times. Consultado el 29 de octubre de 2015. 
  17. «Existential Risk Prevention as Global Priority» (PDF). Nickbostrom.com. Consultado el 16 de octubre de 2014. 
  18. «The Future of Life Institute Open Letter». The Future of Life Institute. Consultado el 4 de marzo de 2015. 
  19. The Financial Times. «Scientists and investors warn on AI». Consultado el 4 de marzo de 2015. 
  20. Bostrom, Nick (2002). Anthropic Bias: Observation Selection Effects in Science and Philosophy. Nueva York: Routledge. pp. 44-58. ISBN 0-415-93858-9. Consultado el 22 de julio de 2014. 
  21. «Anthropic Shadow: Observation Selection Effects and Human Extinction Risks» (PDF). Nickbostrom.com. Consultado el 16 de octubre de 2014. 
  22. a b Sutherland, John (9 de mayo de 2006). «The ideas interview: Nick Bostrom; John Sutherland meets a transhumanist who wrestles with the ethics of technologically enhanced human beings». The Guardian. 
  23. Bostrom, Nick (2003). «Human Genetic Enhancements: A Transhumanist Perspective» (PDF). Journal of Value Inquiry 37 (4). pp. 493-506. doi:10.1023/B:INQU.0000019037.67783.d5. 
  24. Bostrom, Nick (2005). «In Defence of Posthuman Dignity». Bioethics 19 (3). pp. 202-214. PMID 16167401. doi:10.1111/j.1467-8519.2005.00437.x. 
  25. Bostrom, Nick; Ord, Toby (2006). «The reversal test: eliminating status quo bias in applied ethics» (PDF). Ethics 116 (4). pp. 656-679. doi:10.1086/505233. 
  26. Foreign Policy (Diciembre de 2009). «The FP Top 100 Global Thinkers – 73. Nick Bostrom». Archivado desde el original el 7 de enero de 2010. 
  27. Bostrom, Nick (19 de enero de 2010). «Are You Living in a Computer Simulation?». 
  28. Bostrom, Nick (2011). «https://nickbostrom.com/information-hazards.pdf». Faculty of Philosophy & Oxford Martin School Oxford University. Consultado el 28 de septiembre de 2018. 
  29. Bostrom, Nick (2012). «Existential Risk Prevention as Global Priority». Global Policy, Vol 4, Issue 1. Consultado el 28 de septiembre de 2018. 
  30. Armstrong, Stuart; Sandberg, Anders; Bostrom, Nick (2013). «Thinking Inside the Box: Controlling and Using an Oracle AI». Minds and Machines, forthcoming. Consultado el 28 de septiembre de 2018. 
  31. Bostrom, Nick (2005). «In Defense of Posthuman Dignity». Faculty of Philosophy, University of Oxford. Consultado el 28 de septiembre de 2018. 
  32. Bostrom, Nick (2011). «THE ETHICS OF ARTIFICIAL INTELLIGENCE». Cambridge University Press. Consultado el 28 de septiembre de 2018. 
  33. Bostrom, Nick (2011). «ARE YOU LIVING IN A COMPUTER SIMULATION?». Philosophical Quarterly. Archivado desde el original el 19 de septiembre de 2018. Consultado el 28 de septiembre de 2018. 
  34. Bostrom, Nick (2008). «Why I Want to be a Posthuman When I Grow Up». Future of Humanity Institute Faculty of Philosophy & James Martin 21st Century School Oxford University. Consultado el 28 de septiembre de 2018. 

Enlaces externos editar