Inteligencia Artificial.
Hay que señalar que este es un tema bastante amplio, por lo que no sera posible describirlo todo.
La Inteligencia Artificial es una combinación de la ciencia del computador, fisiología y filosofía, tan general y amplio como eso, es que reune varios campos (robótica, sistemas expertos, por ejemplo), todos los cuales tienen en común la creación de máquinas que pueden pensar.
La de idea construir una máquina que pueda ejecutar tareas percibidas como requerimientos de inteligencia humana es un atractivo. Las tareas que han sido estudiadas desde este punto de vista incluyen juegos, traducción de idiomas, comprensión de idiomas, diagnóstico de fallas, robótica, suministro de asesoría experta en diversos temas.
Es así como los sistemas de administración de base de datos cada vez más sofisticados, la estructura de datos y el desarrollo de algoritmos de inserción, borrado y locación de datos, así como el intento de crear máquinas capaces de realizar tareas que son pensadas como típicas del ámbito de la inteligencia humana, acuñaron el término Inteligencia Artificial en 1956.
La Inteligencia Artificial trata de conseguir que los ordenadores simulen en cierta manera la inteligencia humana. Se acude a sus técnicas cuando es necesario incorporar en un sistema informático,conocimiento o características propias del ser humano.
Podemos interrogar a algunas bases de datos de Internet en lenguaje natural, o incluso charlar con ellas nuestro idioma, porque por detrás se está ejecutando un programa de Inteligencia Artificial.
Otras herramientas inteligentes pueden utilizarse para escrutar entre los millones de datos que se generan en un banco en busca de patrones de comportamiento de sus clientes o para detectar tendencias en los mercados de valores.
Características de la Inteligencia Artificial.
-
Una característica fundamental que distingue a los métodos de Inteligencia Artificial de los métodos numéricos es el uso de símbolos no matemáticos, aunque no es suficiente para distinguirlo completamente. Otros tipos de programas como los compiladores y sistemas de bases de datos,también procesan símbolos y no se considera que usen técnicas de Inteligencia Artificial.
-
El comportamiento de los programas no es descrito explícitamente por el algoritmo. La secuencia de pasos seguidos por el programa es influenciado por el problema particular presente. El programa especifica cómo encontrar la secuencia de pasos necesarios para resolver un problema dado (programa declarativo). En contraste con los programas que no son de Inteligencia Artificial, que siguen un algoritmo definido, que especifica, explícitamente, cómo encontrar las variables de salida para cualquier variable dada de entrada (programa de procedimiento).
-
Las conclusiones de un programa declarativo no son fijas y son determinadas parcialmente por las conclusiones intermedias alcanzadas durante las consideraciones al problema específico. Los lenguajes orientados al objeto comparten esta propiedad y se han caracterizado por su afinidad con la Inteligencia Artificial.
-
El razonamiento basado en el conocimiento, implica que estos programas incorporan factores y relaciones del mundo real y del ámbito del conocimiento en que ellos operan. Al contrario de los programas para propósito específico, como los de contabilidad y cálculos científicos; los programas de Inteligencia Artificial pueden distinguir entre el programa de razonamiento o motor de inferencia y base de conocimientos dándole la capacidad de explicar discrepancias entre ellas.
-
Aplicabilidad a datos y problemas mal estructurados, sin las técnicas de Inteligencia Artificial los programas no pueden trabajar con este tipo de problemas. Un ejemplo es la resolución de conflictos en tareas orientadas a metas como en planificación, o el diagnóstico de tareas en un sistema del mundo real: con poca información, con una solución cercana y no necesariamente exacta.
Diferentes metodologías:
1.La lógica difusa: permite tomar decisiones bajo condiciones de incerteza.
2.Redes neuronales: esta tecnología es poderosa en ciertas tareas como la clasificación y el reconocimiento de patrones. Está basada en el concepto de "aprender" por agregación de un gran número de muy simples elementos.
Este modelo considera que una neurona puede ser representada por una unidad binaria: a cada instante su estado puede ser activo o inactivo. La interacción entre las neuronas se lleva a cabo a través de sinapsis. Según el signo, la sinapsis es excitadora o inhibidora.
El perceptrón está constituido por las entradas provenientes de fuentes externas, las conexiones y la salida. En realidad un perceptrón es una Red Neuronal lo más simple posible, es aquella donde no existen capas ocultas.
Para cada configuración de los estados de las neuronas de entrada (estímulo) la respuesta del perceptrón obedece a la siguiente dinámica: se suman los potenciales sinápticos y se comparan con un umbral de activación. Esta suma ponderada es también llamada campo. Si el campo es mayor que un umbral, la respuesta de la neurona es activa, si no, es inactiva.
Con una arquitectura tan simple como la del perceptrón no se puede realizar más que una clase de funciones "booleanas" muy simples, llamadas linealmente separables. Son las funciones en las cuales los estados de entrada con salida positiva pueden ser separados de aquellos a salida negativa por un hiperplano. Un hiperplano es el conjunto de puntos en el espacio de estados de entrada, que satisfacen una ecuación lineal. En dos dimensiones, es una recta, en tres dimensiones un plano, etc.
Si se quieren realizar funciones más complejas con Redes Neuronales, es necesario intercalar neuronas entre las capas de entradas y de salida, llamadas neuronas ocultas. Una red multicapas puede ser definida como un conjunto de perceptrones, ligados entre si por sinapsis y dispuestos en capas siguiendo diversas arquitecturas. Una de las arquitecturas más comúnmente usada es llamada feedforward: con conexiones de la entrada a las capas ocultas y de éstas hacia la salida.
El funcionamiento de una Red Neuronal es gobernado por reglas de propagación de actividades y de actualización de los estados.

Experiencia, Habilidades y Conocimiento
Los tipos de experiencia que son de interés en los sistemas basados en conocimiento, pueden ser clasificados en tres categorías: asociativa, motora y teorica.
Los sistemas basados en conocimiento son excelentes para representar conocimiento asociativo. Este tipo de experiencia refleja la habilidad heurística o el conocimiento que es adquirido mayoritariamente, a través de la observación. Puede ser que no se comprenda exactamente lo que ocurre al interior de un sistema (caja negra), pero se pueden asociar entradas o estímulos con salidas o respuestas, para resolver problemas que han sido previamente conocidos.
La experiencia motora es más física que cognitiva. La habilidad se adquiere fundamentalmente a través del ejercicio y la práctica física constante. Los sistemas basados en conocimiento no pueden emular fácilmente este tipo de experiencia, principalmente por la limitada capacidad de la tecnología robótica.
La experiencia teórica y el conocimiento profundo permite que los humanos puedan resolver problemas que no se han visto antes, es decir, no existe una posibilidad asociativa. El conocimiento teórico y profundo se adquiere a través de estudio y entrenamiento formal, así como por medio de la resolución directa de problemas.
Debido a su naturaleza teórica, este conocimiento se puede olvidar fácilmente, a no ser que se use en forma continua. Al momento, los sistemas convencionales basados en conocimiento tienen muchas dificultades para duplicar este tipo de experiencia. Sin embargo, los Sistemas de Razonamiento Basado en Modelos representan un notable intento de encapsular este conocimiento profundo y razonar con él.
Tipos.
Stuart Russell y Peter Norvig diferencian estos tipos de la inteligencia artificial:
-
Sistemas que piensan como humanos.- Estos sistemas tratan de emular el pensamiento humano; por ejemplo las redes neuronales artificiales. La automatización de actividades que vinculamos con procesos de pensamiento humano, actividades como la Toma de decisiones, resolución de problemas, aprendizaje.
-
Sistemas que actúan como humanos.- Estos sistemas tratan de actuar como humanos; es decir, imitan el comportamiento humano; por ejemplo la robótica. El estudio de cómo lograr que los computadores realicen tareas que, por el momento, los humanos hacen mejor.
-
Sistemas que piensan racionalmente.- Es decir, con lógica (idealmente), tratan de imitar o emular el pensamiento lógico racional del ser humano; por ejemplo los sistemas expertos. El estudio de los cálculos que hacen posible percibir, razonar y actuar.
-
Sistemas que actúan racionalmente (idealmente).– Tratan de emular de forma racional el comportamiento humano; por ejemplo los agentes inteligentes .Está relacionado con conductas inteligentes en artefactos.
Escuelas de pensamiento.
La IA se divide en dos escuelas de pensamiento, la inteligencia artificial convencional y la inteligencia computacional.
Inteligencia artificial convencional
Basada en análisis formal y estadístico del comportamiento
humano ante diferentes problemas:
•Razonamiento basado en casos: ayuda a tomar decisiones mientras se resuelven ciertos problemas concretos.
•Sistemas expertos: infieren una solución a través del conocimiento previo del contexto en que se aplica y de ciertas reglas o relaciones.
•Redes bayesianas: propone soluciones mediante inferencia estadística.
•Inteligencia artificial basada en comportamientos: sistemas complejos que tienen autonomía y pueden auto-regularse y controlarse para mejorar.
Inteligencia artificial computacional
La inteligencia computacional (también conocida como inteligencia artificial subsimbólica) implica desarrollo o aprendizaje iterativo (p.ej. modificaciones iterativas de los parámetros en sistemas conexionistas). El aprendizaje se realiza basándose en datos empíricos. Algunos métodos de esta rama incluyen:
•Máquina de vectores soporte: sistemas que permiten reconocimiento de patrones genéricos de gran potencia.
•Redes neuronales: sistemas con grandes capacidades de reconocimiento de patrones.
•Modelos ocultos de Markov: aprendizaje basado en dependencia temporal de eventos probabilísticos.
•Sistemas difusos: técnicas para lograr el razonamiento bajo incertidumbre. Ha sido ampliamente usada en la industria moderna y en productos de consumo masivo, como las lavadoras.
•Computación evolutiva: aplica conceptos inspirados en la biología, tales como población, mutación y supervivencia del más apto para generar soluciones sucesivamente mejores para un problema. Estos métodos a su vez se dividen en algoritmos evolutivos (ej. algoritmos genéticos) e inteligencia colectiva (ej. algoritmos hormiga)
I.A. Y EMOCIONES.
El concepto de IA es aún demasiado difuso. Contextualizando, y teniendo en cuenta un punto de vista científico, podríamos englobar a esta ciencia como la encargada de imitar una persona, y no su cuerpo, sino imitar al cerebro, en todas sus funciones, existentes en el humano o inventadas sobre el desarrollo de una máquina inteligente.
A veces, aplicando la definición de Inteligencia Artificial, se piensa en máquinas inteligentes sin sentimientos, que «obstaculizan» encontrar la mejor solución a un problema dado. Muchos pensamos en dispositivos artificiales capaces de concluir miles de premisas a partir de otras premisas dadas, sin que ningún tipo de emoción tenga la opción de obstaculizar dicha labor.
En esta línea, hay que saber que ya existen sistemas inteligentes capaces de tomar decisiones «acertadas».
Aunque, por el momento, la mayoría de los investigadores en el ámbito de la Inteligencia Artificial se centran sólo en el aspecto racional, muchos de ellos consideran seriamente la posibilidad de incorporar componentes «emotivos» como indicadores de estado, a fin de aumentar la eficacia de los sistemas inteligentes.
Particularmente para los robots móviles, es necesario que cuenten con algo similar a las emociones con el objeto de saber –en cada instante y como mínimo– qué hacer a continuación [Pinker, 2001, p. 481].
Al tener «sentimientos» y, al menos potencialmente, «motivaciones», podrán actuar de acuerdo con sus «intenciones» [Mazlish, 1995, p. 318]. Así, se podría equipar a un robot con dispositivos que controlen su medio interno; por ejemplo, que «sientan hambre» al detectar que su nivel de energía está descendiendo o que «sientan miedo» cuando aquel esté demasiado bajo.
Esta señal podría interrumpir los procesos de alto nivel y obligar al robot a conseguir el preciado elemento [Johnson-Laird, 1993, p. 359]. Incluso se podría introducir el «dolor» o el «sufrimiento físico», a fin de evitar las torpezas de funcionamiento como, por ejemplo, introducir la mano dentro de una cadena de engranajes o saltar desde una cierta altura, lo cual le provocaría daños irreparables.
Esto significa que los sistemas inteligentes deben ser dotados con mecanismos de retroalimentación que les permitan tener conocimiento de estados internos, igual que sucede con los humanos que disponen de propiocepción, interocepción, nocicepción, etcétera. Esto es fundamental tanto para tomar decisiones como para conservar su propia integridad y seguridad. La retroalimentación en sistemas está particularmente desarrollada en cibernética, por ejemplo en el cambio de dirección y velocidad autónomo de un misil, utilizando como parámetro la posición en cada instante en relación al objetivo que debe alcanzar. Esto debe ser diferenciado del conocimiento que un sistema o programa computacional puede tener de sus estados internos, por ejemplo la cantidad de ciclos cumplidos en un loop o bucle en sentencias tipo do... for, o la cantidad de memoria disponible para una operación determinada.
A los sistemas inteligentes el no tener en cuenta elementos emocionales les permite no olvidar la meta que deben alcanzar. En los humanos el olvido de la meta o el abandonar las metas por perturbaciones emocionales es un problema que en algunos casos llega a ser incapacitante. Los sistemas inteligentes, al combinar una memoria durable, una asignación de metas o motivación, junto a la toma de decisiones y asignación de prioridades con base en estados actuales y estados meta, logran un comportamiento en extremo eficiente, especialmente ante problemas complejos y peligrosos.
En síntesis, lo racional y lo emocional están de tal manera interrelacionados entre sí, que se podría decir que no sólo no son aspectos contradictorios sino que son –hasta cierto punto– complementarios.
Critica.
La pelicula de inteligencia artificial dirigida por steven spielberg nos deja mucho que pensar acerca de este tema.
En la pelicula podemos observar la historia de un niño robot construido para amar a una mujer, la cual tenia a su hijo en un estado quizas algo semejante al coma. Cuando de milagro, el niño verdadero regresa a casa, abandonan al robot en un bosque donde se encuentran con otros robots que huyen de los humanos debido a que los piensan destruir. El robot busca a la hada azul para que lo pueda convertir en un niño de verdad para que "su mami" lo quiera.
Esto quizas pueda a llegar a ser verdad hasta sierto punto, pues, si bien, las emociones pudieran a llegar a se implantadas en una maquina, en el aspecto fisico es otro tema, pues, hasta hoy en dia, no ha habido nada que tenga vida que haga sido producido biologicamente.
Algo que se destaca es que los robots actuan como un ser humano en aspectos buenos, puesto que se ve que piden clemencia, piden amor, tratan de hacer feliz a la gente y pelea por su "vida", salvo de una escena donde el niño destruye a otro igual a el debido a la desesperacion de poder ser suplantado. Mientras que se muestra que los humanos quieren destruirlos, o inclusive, se muestra a una mujer muerta en un hotel.
Pero, si un ser humano y los animales podemos convivir respecto a nuestros sentimientos que son patrones o informacion en el cerebro, ¿si un robot tuviera sentimientos, deberia de tratarsele igual?