Usuario:Jni34/taller1

Ai y robots editar

La inversión en proyectos de IA era enorme, y los creadores de la disciplina creían que ese reto pronto se superaría. Herbert Simon predijo que en 20 años "las máquinas serían capaces de realizar el trabajo de cualquier hombre", mientras que Minsky —nada menos que Minsky— afirmó que "el problema de crear "inteligencia artificial" estará sustancialmente solucionado en esta generación".Pero hasta los más brillantes se equivocan. Los creadores del campo vieron cómo a pesar de esos avances, los retos de esa inteligencia artificial equiparable a la inteligencia natural de los seres humanos eran difícilmente alcanzables. A aquel optimismo desmesurado le siguió un "invierno de la IA" que paralizó las fuentes de inversión y la investigación durante años. Lo más curioso de todo es que quienes seguían trabajando en dicha disciplina no acababan de ponerse de acuerdo en la definición de inteligencia artificial. [1]

Este tipo de sistemas son capaces de resolver problemas muy bien definidos y acotados. La inteligencia artificial débil es la que ha provocado la verdadera explosión de esta disciplina en los últimos tiempos: se han aplicado distintas técnicas como aprendizaje máquina o aprendizaje profundo para lograr resolver problemas específicos, y los resultados han sido excepcionales.

Los logros alcanzados con Deep Blue o con AlphaGo son un ejemplo perfecto de inteligencia artificial débil: estos desarrollos se dedican a resolver un problema concretos y delimitado y que permiten ser resueltos de forma que esos sistemas acaban realizando esas tareas mucho mejor que un ser humano.

Estamos rodeados de ingeligencias artificiales débiles, y de hecho estos son los desarrollos que más popularidad han logrado en los últimos tiempos porque han demostrado cómo es posible programar una máquina y entrenarla para resolver todo tipo de tareas.

Los modernos asistentes de voz son un buen ejemplo de esos casos de inteligencia artificial débil, como también los que están comenzando a aplicarse para el diagnóstico médico o incluso esos bots que se incluyen en los videojuegos y que juegan contra (o con) nosotros para plantearnos un reto con el que nos sintamos motivados y disfrutemos.[2]

La aplicación de este tipo de sistemas es extensa, y de hecho todos los desarrollos prácticos completados hasta la fecha podrían englobarse dentro de esas inteligencias artificiales débiles. Están bien delimitadas y resuelven ciertos problemas de forma ejemplar, pero no son capaces de adaptarse a su entorno (y mucho menos de lograr que el entorno se adapte a ellas) como decía Sternberg.

Intenta pedirle a Siri que juegue una partida de ajedrez contigo: no está programada para eso, y aunque sería posible adaptarla para resolver también esa tarea, lo importante aquí es dejar claro que la inteligencia artificial resuelve problemas muy concretos y delimitados. Fuera de esos límites nos encontramos ante un enorme vacío.

El propio Test de Turing era limitado en este ámbito, porque su ámbito era muy concreto. Tanto es así que aquellos sistemas de IA que han presumido de superarlo —el chatbot Eliza destacó entre ellos— no cumplían ni mucho menos todos los requisitos del test.

Como nos comentaba López de Mántaras en aquel episodio de Captcha, "la inteligencia es mucho más que mantener un diálogo coherente". Se habla del test de Turing total, pero para este investigador el test de Winograd sí es más convincente ya que demuestra sentido común y que la máquina exhibe "una compresión profunda de la semántica del lenguaje". En la comunidad de estudio de la inteligencia artificial no se trabaja con el objetivo de pasar el Test de Turing o el Test de Winograd: "en todo caso pasar esos test sería un efecto colateral de avances en este campo".[3]


tres famosas leyes de la robótica:

  1. Un robot no debe dañar a un ser humano o, por su inacción, dejar que un ser humano sufra daño.
  2. Un robot debe obedecer las órdenes que le son dadas por un ser humano, excepto cuando estas órdenes se oponen a la primera Ley.
  3. Un robot debe proteger su propia existencia, hasta donde esta protección no entre en conflicto con la primera o segunda Leyes.[4]
  1. Pastor, Javier (20 de octubre de 2018). «Qué es la inteligencia artificial». Xataka. Consultado el 21 de mayo de 2021. 
  2. Pastor, Javier (20 de octubre de 2018). «Qué es la inteligencia artificial». Xataka. Consultado el 21 de mayo de 2021. 
  3. Pastor, Javier (20 de octubre de 2018). «Qué es la inteligencia artificial». Xataka. Consultado el 21 de mayo de 2021. 
  4. Sánchez-Migallón, Santiago (28 de abril de 2016). «Éticas de silicio: las tres leyes de la robótica en la era de los robots asesinos». Xataka. Consultado el 21 de mayo de 2021.