La inteligencia artificial (IA) abarca un número diverso de aplicaciones informáticas, o componentes dentro de las aplicaciones, que utilizan conjuntos de reglas y conocimientos para hacer inferencias. A diferencia de sus raíces como disciplina esotérica de intentar hacer computadoras emula la mente humana, la IA moderna, junto con las tecnologías que ha inspirado, tiene muchas ramificaciones prácticas y ofrece beneficios reales a los usuarios. En las aplicaciones comerciales, las capacidades de IA a menudo se integran con sistemas que satisfacen las necesidades diarias de la empresa, como el seguimiento de inventario, los controles del proceso de fabricación y las bases de datos de servicio al cliente. A menudo, sin embargo, estas implementaciones prácticas más nuevas de Al pueden no etiquetarse como tales debido a asociaciones negativas con el término.
¿QUÉ ES LA INTELIGENCIA ARTIFICIAL?
Definir la IA de manera sucinta es difícil porque toma muchas formas. Un área de acuerdo es que la inteligencia artificial es un campo de investigación científica, más que un producto final. La IA es difícil de definir con precisión, en parte porque varios grupos diferentes de investigadores con motivaciones drásticamente diferentes están trabajando en el campo. Quizás la mejor definición es la acuñada por ML Minsky, “La inteligencia artificial es la ciencia de hacer que las máquinas hagan cosas que requerirían inteligencia si las hicieran los hombres”.
HISTORIA DE LA INTELIGENCIA ARTIFICIAL
Charles Babbage (1792-1871), un matemático inglés, es generalmente reconocido como el padre de la informática moderna. Alrededor de 1823 inventó un modelo funcional de la primera calculadora mecánica práctica del mundo. Luego, comenzó a trabajar en su “motor analítico”, que tenía los elementos básicos de una computadora moderna. Desafortunadamente, no pudo recaudar los fondos necesarios para construir su máquina. Sin embargo, sus ideas vivieron.
Herman Hollerith (1860-1929), un inventor estadounidense, creó la primera máquina calculadora en funcionamiento, que se utilizó para tabular los resultados del censo de 1890 en EE. UU. Se produjo una serie de rápidas mejoras en las máquinas que supuestamente “pensaban”. La primera computadora electrónica verdadera, la Computadora e Integrador Numérico Electrónico (ENIAC), fue desarrollada en 1946. El llamado “cerebro gigante” reemplazó los interruptores mecánicos con tubos de vacío de vidrio. ENIAC usó 17.468 tubos de vacío y ocupó 1.800 pies cuadrados, el tamaño de una casa promedio. Pesaba 30 toneladas. Los científicos comenzaron de inmediato a construir computadoras más pequeñas.
En 1959, los científicos de Bell Laboratories inventaron el transistor, que marcó el comienzo de la segunda generación de computadoras. Los transistores reemplazaron los tubos de vacío y aceleraron considerablemente el procesamiento. También hicieron posible un gran aumento de la memoria de la computadora. Diez años más tarde, International Business Machines Corp. (IBM) creó computadoras de tercera generación cuando reemplazaron los transistores con circuitos integrados. ¡Un solo circuito integrado podría reemplazar una gran cantidad de transistores en un chip de silicio de menos de un octavo de pulgada cuadrada! Más importante aún, los circuitos integrados permitieron a los fabricantes reducir drásticamente el tamaño de las computadoras.
Solo dos años después de la aparición de los circuitos integrados, Intel Corp. introdujo chips de microprocesador. Un chip contenía la unidad central de procesamiento de una computadora. Antes de ese momento, las computadoras contenían chips especializados para funciones como la lógica y la programación. La invención de Intel colocó todas las funciones de las computadoras en un solo chip. Los científicos continuaron mejorando en las computadoras.
La miniaturización de chips condujo a circuitos integrados a gran escala (LSI) y circuitos integrados a muy gran escala (VLSI). El software y las impresoras habilitadas para LSI y VLSI reaccionan más rápido entre sí y con las computadoras. También contribuyeron a la invención de las microcomputadoras, que revolucionaron el papel de las computadoras en los negocios. Más importante aún, LSI y VLSI aumentaron el interés de los científicos en el desarrollo de Al.
DESARROLLOS EN
INTELIGENCIA ARTIFICIAL
La IA es la construcción y / o programación de computadoras para imitar los procesos de pensamiento humanos. Los científicos están tratando de diseñar computadoras capaces de procesar los lenguajes naturales y el razonamiento. Creen que una vez que las máquinas puedan procesar lenguajes naturales como el inglés o el español, los humanos podrán dar instrucciones y hacer preguntas sin aprender lenguajes informáticos especiales. Cuando llegue ese día, las máquinas, como los humanos, podrán aprender de la experiencia pasada y aplicar lo que han aprendido para resolver nuevos problemas. Los científicos tienen un largo camino por recorrer, pero han dado lo que creen que es un paso gigantesco en esa dirección con la invención de la “lógica difusa”.
LÓGICA DIFUSA.
Desde sus inicios, las computadoras siempre han actuado sobre una base de “sí” o “no”. Simplemente no han podido reconocer “tal vez”. Incluso las computadoras más sofisticadas, capaces de realizar millones de cálculos por segundo, no pueden distinguir entre “levemente” o “muy”. Esta simple diferencia ha confundido a los científicos de IA durante años. Sin embargo, un investigador estadounidense, el Dr. Lofti A. Zadeh, de la Universidad de California, presentó una posible respuesta, a la que denominó “lógica difusa”.
El concepto se basa en alimentar a la computadora “conjuntos difusos”, o agrupaciones de información concreta y conceptos relativos. Por ejemplo, en un conjunto difuso para hornos industriales, una temperatura de 1000 grados podría tener una “membresía” (valor relativo) de 0,95, mientras que una temperatura de 600 grados podría tener una membresía de 0,50. Un programa de computadora podría utilizar instrucciones tales como, “cuanto más alta es la temperatura, más baja debe ser la presión”. Esta solución significa que los programadores pueden enseñar a las máquinas a calcular con palabras, en lugar de números.
Históricamente, los modelos matemáticos más complejos desarrollados por programadores calculan estrictamente con números. Sin embargo, el enfoque de lógica difusa de la IA no se popularizó en la comunidad científica estadounidense. Sin embargo, lo hizo entre los japoneses.
Hitachi, Ltd., con sede en Japón, desarrolló un sistema de inteligencia artificial basado en lógica difusa que permitió que un sistema de metro automatizado en Sendai, Japón, frenara más rápida y suavemente de lo que podría bajo la guía humana. El Ministerio de Industria y Comercio Internacional de Japón presupuestó 36 millones de dólares en 1990 para subsidiar la operación inicial de un Laboratorio de Ingeniería Fuzzy Internacional. El desarrollo de la ingeniería difusa también se apoderó de China, Rusia y gran parte de Europa occidental. Los científicos estadounidenses, sin embargo, buscaron otros aspectos de la IA.
A principios de la década de 1990, un profesor de la Universidad de Carolina del Norte desarrolló un chip de microprocesador utilizando una arquitectura totalmente digital, lo que le permitiría funcionar en computadoras convencionales. El chip puede manejar 580.000 decisiones “si-entonces” por segundo, lo que es más de 100 veces más rápido de lo que puede operar el mejor chip japonés de lógica difusa. Muchas empresas estadounidenses han estado experimentando con este y otros chips similares. El Laboratorio Nacional de Oak Ridge está utilizando el chip en robots para ser empleado en áreas radiactivas de plantas de energía nuclear. Oricon Corporation ha utilizado lógica difusa en un sistema de análisis de señales para submarinos. La NASA también ha experimentado con el uso de lógica difusa para ayudar a atracar naves espaciales.
SISTEMAS EXPERTOS.
También se utilizan otras aplicaciones de Al; uno es el llamado sistema experto. Los sistemas expertos son sistemas basados en computadora que aplican el conocimiento sustancial de un especialista, ya sea en medicina, derecho, seguros o casi cualquier campo, para ayudar a resolver problemas complejos sin necesidad de que un humano trabaje en cada uno de ellos. Al desarrollar dichos sistemas, los diseñadores suelen trabajar con expertos para determinar la información y las reglas de decisión (heurísticas) que los expertos utilizan cuando se enfrentan a determinados tipos de problemas. En esencia, estos programas simplemente intentan imitar el comportamiento humano, en lugar de resolver problemas por sí mismos.
Los sistemas expertos tienen varias ventajas. Por ejemplo, brindan a los principiantes “experiencia instantánea” en un área en particular. Captan el conocimiento y la experiencia que podrían perderse si un experto humano se jubila o muere. Además, el conocimiento de múltiples expertos puede integrarse, al menos teóricamente, para hacer que la experiencia del sistema sea más completa que la de cualquier individuo. Los sistemas expertos no están sujetos a problemas humanos de enfermedad o fatiga y, si están bien diseñados, pueden ser menos propensos a incoherencias y errores. Estos beneficios los hacen particularmente atractivos para las empresas.
Las empresas también utilizan sistemas expertos para la formación y el análisis. General Electric, por ejemplo, desarrolló un sistema llamado Delta que ayuda a los trabajadores de mantenimiento a identificar y corregir fallas en las locomotoras. Digital Equipment Corporation utiliza XCON (derivado de “configurador experto”) para satisfacer las necesidades de los clientes con la combinación más adecuada de dispositivos de entrada, salida y memoria de computadora. El sistema utiliza más de 3000 reglas de decisión y 5000 descripciones de productos para analizar los pedidos de venta y diseñar diseños, lo que garantiza que el equipo de la empresa funcionará cuando llegue a los sitios de los clientes. XCON detecta la mayoría de los errores de configuración, y elimina la necesidad de ensamblar completamente un sistema informático para realizar pruebas y luego desglosarlo nuevamente para enviarlo al cliente. Sin embargo, el sistema es caro. DEC gasta $ 2 millones por año solo para actualizar XCON. De hecho, el costo es uno de los factores más prohibitivos involucrados en el desarrollo de sistemas de AI. Sin embargo, cuando un sistema de este tipo se implementa de manera efectiva, el dinero que ahorra en horas de personal y los costos de errores humanos evitados puede recuperar rápidamente los costos de desarrollo. En las grandes corporaciones, los ahorros pueden acumularse en decenas de millones de dólares por año. cuando un sistema de este tipo se implementa de manera efectiva, el dinero que ahorra en horas de personal y los costos de errores humanos evitados puede recuperar rápidamente los costos de desarrollo. En las grandes corporaciones, los ahorros pueden acumularse en decenas de millones de dólares por año. cuando un sistema de este tipo se implementa de manera efectiva, el dinero que ahorra en horas de personal y los costos de errores humanos evitados puede recuperar rápidamente los costos de desarrollo. En las grandes corporaciones, los ahorros pueden acumularse en decenas de millones de dólares por año.
Un sistema de tamaño moderado, que consta de alrededor de 300 reglas de decisión, generalmente cuesta entre $ 250 000 y $ 500 000 para diseñar. Esa es una gran cantidad de dinero para gastar en la creación de sistemas que hacen poco más que jugar al ajedrez, que fue lo que hicieron algunos diseñadores en la década de 1960.
JUEGOS EXPERIMENTALES.
Los científicos de la década de 1960 desarrollaron máquinas que podían jugar al ajedrez en un intento de crear máquinas que pudieran pensar por sí mismas. Hicieron enormes avances en el desarrollo de árboles de decisiones sofisticados que podrían trazar posibles movimientos, pero esos programas incluían tantas alternativas potenciales que incluso las supercomputadoras contemporáneas no pueden evaluarlas en un período de tiempo razonable. Redujeron el número de alternativas, lo que permitió a las máquinas jugar al nivel de maestro de ajedrez. Para simular el proceso de pensamiento, las computadoras procesaron grandes cantidades de datos sobre movimientos alternativos. Algunos de estos experimentos continúan hasta el presente.
REDES NEURONALES.
Las redes neuronales van un paso más allá que los sistemas expertos a la hora de aportar el conocimiento almacenado para resolver problemas prácticos. En lugar de simplemente llevar al usuario al conocimiento apropiado que ha sido capturado en el sistema, las redes neuronales procesan patrones de información para llegar a nuevas habilidades con las que no estaban equipadas desde el primer día. En cierto sentido, aprenden a hacer cosas para el usuario basándose en una preparación especial que implica alimentar los datos del sistema que luego analiza en busca de patrones. Este enfoque ha demostrado ser muy eficaz en varios campos, incluidos las finanzas, la gestión de la tecnología de la información y el cuidado de la salud.
Por ejemplo, se podría emplear una red neuronal para predecir qué solicitantes de préstamos son demasiado riesgosos. En lugar de programar la computadora con criterios exactos definidos por el usuario para lo que constituye un solicitante de riesgo, la red neuronal se entrenaría en un gran volumen de datos de solicitud de préstamos anteriores, especialmente en detalles sobre los problemáticos. La red neuronal procesaría los datos a fondo y llegaría a sus propios criterios de evaluación. Luego, a medida que aparezcan nuevas aplicaciones, la computadora usaría este conocimiento para predecir los riesgos involucrados. A medida que pasa el tiempo, la red neuronal podría recibir reentrenamiento periódico (o incluso continuo) sobre nuevos datos para que continúe perfeccionando su precisión en función de las tendencias actuales.
APLICACIONES DE AL EN EL
MUNDO EMPRESARIAL
Al se utiliza ampliamente en el mundo empresarial, a pesar de que la disciplina en sí se encuentra todavía en las etapas embrionarias de desarrollo. Sus aplicaciones atraviesan un amplio espectro. Por ejemplo, Al se está aplicando en gestión y administración, ciencia, ingeniería, manufactura, áreas financieras y legales, esfuerzos militares y espaciales, medicina y diagnóstico.
Algunas implementaciones de IA incluyen procesamiento de lenguaje natural, recuperación de bases de datos, sistemas de consultoría expertos, demostración de teoremas, robótica, programación automática, programación y resolución de problemas de percepción. Gestión confía cada vez más en los sistemas de trabajo del conocimiento, que son sistemas utilizados para ayudar a profesionales como arquitectos, ingenieros y técnicos médicos en la creación y difusión de nuevos conocimientos e información. Uno de estos sistemas está en uso en Square D, un fabricante de componentes eléctricos. Una computadora hace el trabajo de diseño para unidades gigantes de equipos eléctricos. Las unidades generalmente comparten los mismos elementos básicos pero varían en tamaño, especificaciones y características requeridas. Sin embargo, como es el caso de la mayoría de los sistemas de tipo AI, todavía se requiere la intervención humana. Se necesita un ingeniero para verificar el dibujo producido por computadora antes de que el equipo se ponga en producción.
Los altos directivos de muchas empresas utilizan sistemas de planificación estratégica basados en IA para ayudar en funciones como análisis competitivo, implementación de tecnología y asignación de recursos. También utilizan programas para ayudar en el diseño de configuración de equipos, distribución de productos, asesoramiento sobre cumplimiento normativo y evaluación del personal. Al está contribuyendo en gran medida a la organización, planificación y control de las operaciones de la dirección, y seguirá haciéndolo con más frecuencia a medida que se perfeccionen los programas.
La IA también influye en la ciencia y la ingeniería. Las aplicaciones desarrolladas se utilizaron para organizar y manipular la cantidad cada vez mayor de información disponible para científicos e ingenieros. La IA se ha utilizado en procesos complejos como el análisis de espectrometría de masas, las clasificaciones biológicas y la creación de circuitos semiconductores y componentes de automóviles. Al se ha utilizado cada vez con mayor frecuencia en difracción y análisis de imágenes; diseño de centrales eléctricas y estaciones espaciales; y detección, control y programación de robots. Es el mayor uso de la robótica en los negocios lo que alarma a muchos críticos de la inteligencia artificial.
Los robots se utilizan con mayor frecuencia en el mundo empresarial. En 1990, se utilizaban más de 200.000 robots en las fábricas estadounidenses. Los expertos predicen que para el año 2025 los robots podrían reemplazar a los humanos en casi todos los trabajos de fabricación. Esto incluye no solo las tareas mundanas, sino también las que requieren habilidades especializadas. Realizarán trabajos como esquilar ovejas, raspar percebes del fondo de los barcos y pulir paredes con chorro de arena. Sin embargo, hay trabajos que los robots nunca podrán realizar, como la cirugía. Por supuesto, seguirá siendo necesario que las personas diseñen, construyan y mantengan robots. Sin embargo, una vez que los científicos desarrollan robots que pueden pensar, además de actuar, puede haber menos necesidad de intervención humana. Por lo tanto,
EL FUTURO DE LA
INTELIGENCIA ARTIFICIAL
A pesar de sus grandes avances y su fuerte promesa, Al, de nombre, ha sufrido de baja estima tanto en el ámbito académico como en el empresarial. Para algunos, el nombre está inexorablemente —y desfavorablemente— asociado con computadoras poco prácticas que juegan al ajedrez y profesores reclusos que intentan construir una “máquina pensante”. Como resultado, muchos desarrolladores de teorías y aplicaciones de IA conscientemente evitan el apodo, prefiriendo en su lugar utilizar la jerga más reciente de aplicaciones difusas, software flexible y herramientas de extracción de datos. Al evitar la etiqueta Al, han encontrado audiencias más receptivas entre los tomadores de decisiones corporativos y los inversores privados para sus tecnologías inspiradas en Al.
Por lo tanto, mientras que las prácticas e ideas conocidas como Al apenas están muertas, el nombre en sí se desvía hacia la oscuridad. Esto es cierto no solo por el estigma percibido, sino también como consecuencia de la diversidad y heterogeneidad de las formas en que se han implementado los conceptos de IA. Además, estos conceptos están al borde de la ubicuidad en la programación de aplicaciones de software. Objetivos tan dispares como crear un sistema de pedidos de clientes, implementar un sistema de fabricación de autodiagnóstico, diseñar un motor de búsqueda sofisticado y agregar capacidades de reconocimiento de voz a las aplicaciones, todos emplean teorías y métodos de inteligencia artificial. De hecho, Ford Motor Company tenía previsto implementar una red neuronal de diagnóstico de motores en las computadoras de sus automóviles a partir del año modelo 2001.