Diferencia entre revisiones de «Inteligencia artificial»

Contenido eliminado Contenido añadido
m Revertidos los cambios de 189.181.10.230 a la última edición de Drini
Línea 40:
La inteligencia artificial permite al hombre emular en las máquinas el comportamiento humano, tomando como base el cerebro y su funcionamiento, de manera tal que se pueda alcanzar cierto razonamiento creando marionetas roboticas.
 
== La inteligencia artificial y los sentimientos ==
==
El concepto de IA es aún demasiado difuso. Contextualizando, y teniendo en cuenta un punto de vista científico, podríamos
englobar a esta ciencia como la encargada de imitar una persona, y no su cuerpo, sino imitar al [[cerebro]], en
todas sus funciones, existentes en el humano o inventadas sobre el desarrollo de una [[máquina]] inteligente.
 
A veces, aplicando la definición de Inteligencia Artificial, se piensa en máquinas inteligentes sin [[sentimientos]], que "obstaculizan" encontrar la mejor solución a un problema dado. Muchos pensamos en [[dispositivo]]s artificiales capaces de concluir miles de [[premisa]]s a partir de otras [[premisa]]s dadas, sin que ningún tipo de emoción tenga la opción de obstaculizar dicha labor.
 
En esta línea, hay que saber que ya existen sistemas inteligentes. Capaces de [[toma de decisiones|tomar decisiones]] "acertadas".
 
Aunque, por el momento, la mayoría de los investigadores en el ámbito de la Inteligencia Artificial se centran sólo en el aspecto racional, muchos de ellos consideran seriamente la posibilidad de incorporar componentes “emotivos” como ''indicadores de estado'', a fin de aumentar la eficacia de los sistemas inteligentes.
 
Particularmente para los robots móviles, es necesario que cuenten con algo similar a las emociones con el objeto de saber –en cada instante y como mínimo– qué hacer a continuación [Pinker, 2001, p. 481].
 
Al tener “sentimientos” y, al menos potencialmente, “motivaciones”, podrán actuar de acuerdo con sus “intenciones” [Mazlish, 1995, p. 318]. Así, se podría equipar a un robot con dispositivos que controlen su medio interno; por ejemplo, que “sientan hambre” al detectar que su nivel de energía está descendiendo o que “sientan miedo” cuando aquel esté demasiado bajo.
 
Esta señal podría interrumpir los procesos de alto nivel y obligar al robot a conseguir el preciado elemento [Johnson-Laird, 1993, p. 359]. Incluso se podría introducir el “dolor” o el “sufrimiento físico”, a fin de evitar las torpezas de funcionamiento como, por ejemplo, introducir la mano dentro de una cadena de engranajes o saltar desde una cierta altura, lo cual le provocaría daños irreparables.
 
Esto significa que los sistemas inteligentes deben ser dotados con mecanismos de [[retroalimentación]] que les permitan tener conocimiento de estados internos, igual que sucede con los humanos que disponen de [[propiocepción]], [[interocepción]], [[nocicepción]], etcétera. Esto es fundamental tanto para tomar decisiones como para conservar su propia integridad y seguridad. La retroalimentación en sistemas está particularmente desarrollada en [[cibernetica|cibernética]], por ejemplo en el cambio de dirección y velocidad autónomo de un misil, utilizando como parámetro la posición en cada instante en relación al objetivo que debe alcanzar. Esto debe ser diferenciado del conocimiento que un sistema o programa computacional puede tener de sus estados internos, por ejemplo la cantidad de ciclos cumplidos en un loop o bucle en sentencias tipo ''do... for'', o la cantidad de memoria disponible para una operación determinada.