CONOCE EL ORIGEN. EL CONCEPTO Y LA ACTUALIDAD SOBRE LA INTELIGENCIA ARTIFICIAL, ASÍ COMO SUS APLICACIONES. PARTE 1.
Se habla mucho, quizás demasiado, sobre el tema de la Inteligencia Artificial (IA), con la paradoja de que mucha gente aún no entiende su significado e importancia. En esta entrada, conoceremos qué es, un poco de su historia, evolución y de qué forma la aplicamos.
LA INTELIGENCIA ARTIFICIAL.
La Inteligencia Artificial es aquella inteligencia que permite que las máquinas resuelvan problemas de forma autónoma. Es decir, consiste en dotar a diversos tipos de máquinas del software necesario para que puedan percibir su entorno y, teniéndolo en cuenta y acorde a su programación objetiva, pueda tomar las decisiones más adecuadas para seguir cumpliendo su función de forma autónoma y sin necesidad de que el ser humano dirija sus acciones.
En resumen, la Inteligencia Artificial es la tecnología que se aplica cuando una máquina adquiere funciones cognitivas que, tradicionalmente, se suelen asociar a los seres humanos, tales como percibir el entorno, resolver problemas y tomar decisiones de manera autónoma.
Si bien las ideas esenciales se remontan a la lógica y algoritmos de los griegos, y a las matemáticas de los árabes, varios siglos antes de Cristo, el concepto de obtener razonamiento artificial aparece en el siglo XIV. A finales del siglo XIX se obtienen lógicas formales suficientemente poderosas y a mediados del siglo XX, se obtienen máquinas capaces de hacer uso de tales lógicas y algoritmos de solución.
ORIGEN DE LA INTELIGENCIA ARTIFICIAL.
El origen de la inteligencia artificial es muy antiguo. Se remonta al 300 a.C. y aunque, por aquel entonces era impensable un concepto de tal magnitud, los siguientes hechos de la historia tuvieron un peso importante en su desarrollo. Aristóteles fue el primero en descubrir de manera estructurada un conjunto de reglas, los llamados silogismos, que describen una parte del funcionamiento de la mente humana y que, al seguirlas paso a paso, producen conclusiones racionales a partir de las premisas.
En el 250 a.C., Ctesibio de Alejandría construyó la primera máquina autocontrolada. Se trataba de un regulador del agua que modificaba su propio funcionamiento, pero sin un razonamiento previo.
En 1315, Ramon Llull tuvo la idea de que el razonamiento podía ser efectuado de maneral artificial.
En 1637, uno de los filósofos más influyentes del siglo XVII predijo la posibilidad de crear máquinas que pensasen por sí mismas. Esta figura se trataba de René Descartes.
Después de años de parón en este sentido, en 1847, el matemático George Boole puso un componente más a esta historia, estableciendo que el razonamiento lógico podría sistematizarse, de igual forma que se resuelve una ecuación matemática.
30 años más tarde, Gottlob Frege a partir de los estudios de Boole obtiene la Lógica de Primer Orden, la cual contaba con mayor énfasis y una mejor expresión. Actualmente se sigue tomando como referencia.
En 1903 Lee De Forest inventa el triodo, también llamado bulbo o válvula de vacío.
DISCIPLINAS EN LAS QUE SE APOYA LA INTELIGENCIA ARTIFICIAL.
La ciencia no se define, sino que se reconoce. Para la evolución de la inteligencia artificial las dos fuerzas más importantes fueron la lógica matemática, la cual se desarrolla rápidamente a finales del siglo XIX, y las nuevas ideas acerca de computación y los avances en electrónica que permitieron la construcción de los primeros computadores en 1940. También son fuente de la inteligencia artificial: la filosofía, la neurociencia y la lingüística. La lógica matemática ha continuado siendo un área muy activa en la inteligencia artificial. Incluso antes de la existencia de los ordenadores con los sistemas lógicos deductivos.
ALAN TURING, UN FACTOR CLAVE EN EL PROCESO.
La inteligencia artificial no sería lo que es sin la tecnología y, no hay nada más futurista que los robots. La primera vez que se acuñó esta disruptora palabra fue en el año 1921 por Karel Čapek en su obra de teatro R.U.R.
Siguiendo este hilo, en 1936 entra en juego el que hoy en día se considera como uno de los padres de la tecnología de la información, Allan Turing. Este matemático introdujo el concepto de algoritmo a través de su artículo “Computing machinery and intelligence” mediante el cual sentó las bases de la informática moderna.
A través del cual, surge el conocido Test de Turing, un examen de la capacidad de una máquina para exhibir un comportamiento inteligente similar al de un ser humano o indistinguible de este. Alan Turing propuso que un humano evaluara conversaciones en lenguaje natural entre un humano y una máquina diseñada para generar respuestas similares a las de un humano.
El evaluador sabría que uno de los participantes de la conversación es una máquina y los intervinientes serían separados unos de otros. La conversación estaría limitada a un medio únicamente textual como un teclado de computadora y un monitor por lo que sería irrelevante la capacidad de la máquina de transformar texto en habla.
En el caso de que el evaluador no pueda distinguir entre el humano y la máquina acertadamente (Turing originalmente sugirió que la máquina debía convencer a un evaluador, después de 5 minutos de conversación, el 70 % del tiempo), la máquina habría pasado la prueba. Esta prueba no evalúa el conocimiento de la máquina en cuanto a su capacidad de responder preguntas correctamente, solo se toma en cuenta la capacidad de esta de generar respuestas similares a las que daría un humano.
5 años más tarde, se crea el primer ordenador de la historia moderna, un dispositivo programable y automático, el cual fue bautizado como Z3. El mérito de este invento se le atribuye a Konrad Zuse.
Ese mismo año, con una mayor innovación, eficiencia y cada vez más cerca de la inteligencia artificial, Isaac Asimov, en su escrito de ciencia ficción “Círculo Vicioso” argumenta las leyes de la robótica, aquellas que todo robot debe cumplir. Estas son:
- Los robots no podrán dañar al ser humano.
- Los robots cumplirán las órdenes designadas.
- Los robots protegerán su propia existencia siempre y cuando ésta no entre en conflicto con la primera o segunda ley antes propuestas.
En 1943, Warren McCulloch y Walter Pitts presentaron su modelo de neuronas artificiales, el cual se considera el primer trabajo del campo de inteligencia artificial, aunque aún no había sido acuñado como tal.
Estos científicos partieron de tres fuentes principales: conocimientos sobre la fisiología básica y funcionamiento de las neuronas en el cerebro, el análisis formal de la lógica preposicional de Russell y Whitehead y la teoría de Allan Turing.
¿NACIMIENTO Y EVOLUCIÓN DE LA INTELIGENCIA ARTIFICIAL?
El interés de la comunidad científica por la Inteligencia Artificial, sin embargo, comenzó muy lejos: el primer proyecto real de IA se remonta a 1943, cuando los investigadores Warren McCulloch y Walter Pitt propusieron al mundo científico la primera neurona artificial, a la que siguió, en 1949, el libro de Donald Olding Hebb, psicólogo canadiense, gracias al cual se analizaron en detalle las conexiones entre las neuronas artificiales y los complejos modelos del cerebro humano.
Los primeros prototipos funcionales de redes neuronales (es decir, modelos matemáticos/informáticos desarrollados para reproducir el funcionamiento de las neuronas biológicas con el fin de resolver problemas de inteligencia artificial entendida, en aquellos años, como la capacidad de una máquina para realizar funciones y hacer razonamientos como una mente humana) llegaron entonces hacia finales de los años 50 y el interés del público se hizo mayor gracias al joven Alan Turing, que ya en 1950 intentó explicar cómo un ordenador puede comportarse como un ser humano.
El término Inteligencia Artificial parte “oficialmente” del matemático estadounidense John McCarthy (en 1956) y con él el “lanzamiento” de los primeros lenguajes de programación (Lisp en 1958 y Prolog en 1973) específicos para la IA.
Desde entonces, la historia de la Inteligencia Artificial ha sido bastante fluctuante y se ha caracterizado por avances significativos en cuanto a los modelos matemáticos (cada vez más sofisticados y diseñados para “imitar” algunas funciones cerebrales como el reconocimiento de patrones) pero con altibajos en cuanto a la investigación en hardware y redes neuronales.
El primer gran avance en este último frente se produjo en los años 90 con la entrada en el mercado “ampliado” (es decir, al gran público) de los procesadores gráficos, las Gpu – graphics processing unit (chips de procesamiento de datos mucho más rápidos que la Cpu, procedentes del mundo del juego y capaces de soportar procesos complejos mucho más rápido, funcionando a frecuencias más bajas y consumiendo menos energía que la “vieja” Cpu).
¿QUÉ ES EL MACHINE LEARNING?.
No se puede hablar de Inteligencia Artificial sin dedicar un momento a hablar del Machine Learning. Esta tecnología es una rama de la Inteligencia Artificial, y consiste en programar a las máquinas para que, además de realizar el trabajo para el que han sido encomendadas, también sean capaces de aprender por sí mismas.
De esta forma, gracias al Machine Learning, las máquinas son capaces de aprender por sí solas y, en consecuencia, solucionar problemas nuevos o situaciones cambiantes sin necesidad de que un ser humano las reprograme para ello. Es decir, gracias a la tecnología Machine Learning se logra un nivel de automatización completo.
Básicamente la inteligencia artificial tiene la meta de hacernos la vida más sencilla. Nuestros móviles son un gran ejemplo de ello ya que tienen diversas aplicaciones de la inteligencia artificial como:
- – Los asistentes de voz virtuales como Siri o Alexa.
- – Las apps para el aprendizaje de idiomas como Elsa.
- – Las aplicaciones que identifican canciones.
- – Las aplicaciones que te ofrecen productos en función de tus últimas compras.
- – Las apps que identifican el tipo de música que te gusta y te ofrecen canciones que te pueden gustar.
- – Las apps de fotos que clasifican las fotos en función de un análisis facial o de otros elementos.
ARTÍCULOS RECOMENDADOS Y FUENTES UTILIZADAS.
Además de esta publicación, ya hemos analizado la Inteligencia Artificial en otros artículos.
Inteligencia artificial, ¿Qué es?.
Su aplicación en los videojuegos.
Inteligencia artificial, retos jurídicos 1.
Inteligencia artificial: retos jurídicos. 2.
Si te has quedado con las ganas de saber más sobre la Inteligencia Artificial, ¡no dejaremos de sorprenderte!
TE RECOMENDAMOS LOS SIGUIENTES LIBROS SOBRE INTELIGENCIA ARTIFICIAL QUE PODRÁS ADQUIRIR EN AMAZON.