Los objetivos
de la inteligencia artificial: Un ordenador ejecuta las órdenes para procesar
datos que le son suministrados sin que disponga de capacidad para desarrollar
razonamiento alguno acerca de dicha información. Frente a ello, la propuesta de
la inteligencia artificial consiste en lograr que el procesador se adapte al
método de razonamiento y comunicación humanos, para que pueda, no sólo poner en
práctica los algoritmos que en él introduce el hombre, sino establecer los suyos
propios para resolver problemas. El ordenador puede calcular el área de un
polígono siempre que posea el programa que le proporciona el dato de la medida
de uno de sus lados y la fórmula correspondiente para realizar dicha operación;
la inteligencia artificial pretende que el procesador sea instruido en los
principios de la geometría, para, por sí mismo, resolver la cuestión, a partir
de un algoritmo de su propia creación. En definitiva, la inteligencia
artificial explora los mecanismos que convierten al ordenador en una máquina
pensante. La posibilidad de que esta hipótesis llegue a hacerse realidad es
rechazada por numerosos expertos informáticos. En todo caso, se siguen
explorando caminos y, día a día, se constatan los progresos.
La máquina
pensante y los sistemas expertos
Uno de los
primeros intentos de construir una máquina pensante se llevó a cabo en la
década de los sesenta. El resultado fue la creación del GPS (General Problem
Solver,; solucionador general de problemas), que podía resolver sencillos
juegos, siempre que tuvieran un número reducido de reglas precisas. El
fundamento del GPS era que un problemas podía resolverse partiendo del análisis
de todas sus soluciones posibles y actuando con sucesivos intentos hasta hallar
el camino adecuado. La cuestión que inmediatamente se planteó fue que, dada la
ignorancia absoluta sobre determinado tema, la búsqueda de salidas requerirla
de un tiempo inadmisible. Evidentemente, la aplicación del GPS a la resolución
de problemas reales resultaba imposible.
Poco tiempo
después se idearon los primeros sistemas expertos, especializados en
determinados ámbitos; el más célebre, el Mycin, fue diseñado en 1974. Se aplicó
al campo médico, concretamente al área de diagnosis, con resultados más que
aceptables. Los sistemas expertos actúan en función de normas que regulan una
relación con el usuario; su misión no es sustituir a la persona encargada de
realizar determinada tarea, sino tener la posibilidad de operar sobre la base
de sus conocimientos en ausencia de ella. El especialista es, lógicamente, el
encargado de instruir al sistema experto, que dispondrá de una base de
conocimientos acerca de un tema en cuestión. Dichos conocimientos adoptan la
forma de principios a partir de los cuales el sistema deduce conclusiones,
elabora juicios o toma decisiones. Además de la exigencia de que la respuesta
del sistema experto venga dada en un intervalo de tiempo razonable, son también
elementos fundamentales la capacidad de indicar el proceso de resolución
efectuado y la posibilidad de adquirir conocimientos a partir de la propia
experiencia. En este último caso, el sistema podrá aplicar los resultados
obtenidos en situaciones análogas futuras.
Componentes
de los sistemas expertos
Un sistema
experto consta de cuatro elementos básicos: banco de conocimientos, motor de
inferencia, módulo de adquisición e interfaz de interpretación. El primero de
ellos es el conjunto de datos que posee el sistema. El motor de inferencia se
define como el mecanismo de razonamiento, que opera en una fase intuitiva y en
otra deductiva. Por su parte, el módulo de adquisición es el elemento que
permite al especialista instruir al sistema transmitiéndole sus conocimientos.
Finalmente, la interfaz de interpretación permite al sistema explicarse sobre
el’ camino seguido hasta llegar a determinada conclusión.
Las redes
neuronales
En la década
de los cuarenta surgió la teoría de las redes neuronales que parte de una
comparación entre el ordenador y el cerebro humano, y cuyo objetivo es imitar
el funcionamiento del sistema neuronal. Podría decirse que el cerebro en el
lenguaje informático, sería un sistema paralelo formado por ingentes cantidades
de procesadores interconectados entre si: las neuronas. Veamos cómo actúan Cada
neurona consta de
un cuerpo
celular ramificado en una serie de fibras nerviosas, las dendritas; dentro d
cuerpo celular se encuentra el núcleo, y de la célula sale el axón, una fibra
larga que termina en filamentos nerviosos. Las células nerviosas están
conectadas entre sí mediante millares de sinapsis —unidas a las dendritas o
directamente al cuerpo celular— El mecanismo de razonamiento se verifica cuando
se produce una transmisión de señales químicas entre las células nerviosas
encargadas de procesar la información Así las neuronas reciben señales de otras
células; a continuación, procesan dicha información y, en determinadas
condiciones al alcanzar el umbral especifico, transmiten la señal
correspondiente -envían el mensaje— a través de su axón y por medio de la
sinapsis. Si bien el cerebro es muy superior en determinadas tareas, que
realiza a mayor velocidad que la máquina , el ordenador dispone de una
capacidad de memorización muy superior y está Preparado para realizar otras
operaciones en tiempos que resultan mínimos con relación a ¡os empleados por la
mente humana.
Siguiendo el
proceso de funcionamiento de las neuronas cerebrales los investigadores
McCulloch y Pitts idearon en 1943 el modelo que lleva su nombre. El modelo de
McCulloch y Pitts se realiza a partir de una red de gran tamaño, formada por
elementos simples cuya misión es el cálculo de sencillas funciones —4a neurona
únicamente debe realizar la suma ponderada de los impulsos de otras neuronas,
un programa básico—. Sin embargo, habitualmente, un número reducido de
calculadores ejecuta programas de enorme complejidad; en el transcurso del
proceso, un pequeño error puede repercutir fatalmente en el resultado. Por otra
parte, las neuronas cerebrales se comunican con una velocidad varios millones
de veces más lenta que la velocidad de operación de los circuitos electrónicos.
Por el contrario, el cerebro humano procesa determinado tipo de datos, como
imágenes o sonidos, mucho más rápidamente que el ordenador.
El Principio de Incompatibilidad
Un paso
fundamental en la aproximación entre el modo de razonamiento humano y el de la
máquina es comprender que, en situaciones con determinado grado de complejidad,
no existe una solución única, sino que pueden aplicarse métodos diversos. La
mente del ser humano es capaz de ponderar las ventajas e inconvenientes que
ofrece cada uno y, en consecuencia, tomar una decisión. Normalmente, el
ordenador se encuentro determinado hacia un único camino. El principio de
incompatibilidad de los sistemas complejos fue formulado en 1972 por Zadeh.
Expresa el hecho de que a medida que se profundizo en el estudio de las
propiedades características de un determinado sistema, mayor riesgo de imprecisa y error existe para su descripción. Al aumentar la complejidad, las
posibilidades de expresamos con exactitud y pertinencia disminuyen, en razón
del número creciente de factores que intervienen en nuestro análisis.
La lógica
ambigua
A mediados de
la década de los sesenta surgió una nueva teoría, la lógica ambigua, denominada
así por tratarse de una disciplina opuesta a la lógica binaria, que opera en
función de pares de datos contrarios: si/no, verdadero /falso, 1/O. En el marco
de la lógica ambigua, el paso de un valor a otro se realiza de manera gradual,
sin que exista una línea de separación nítida. No resulta adecuado trabajar con
valores numéricos —1 y O—, propios de la lógica binaria, sino con variables
lingüísticas. En definitiva, se trata de operar en sistemas donde los fenómenos
no se describen analíticamente, sino que son caracterizados de modo descriptivo
o lingüístico. La lógica ambigua trata de asignar valores de verdad a
expresiones a las que no pueden asociarse unívocamente las consideraciones:
verdadero o falso. En contra de lo que pudiera pensarse a simple vista, las
aplicaciones de la lógica ambigua no implican un descenso en los niveles de
control y fiabilidad en aquellos campos en que se ponen en práctica. Si bien
estas teorías han tenido un desarrollo notable en ámbitos orientales, en
Occidente su aceptación ha sido mucho más costosa.
No hay comentarios:
Publicar un comentario