La inteligencia artificial

 



¿Qué es la inteligencia artificial?

Aunque varias definiciones de inteligencia artificial (IA) han surgido durante las últimas décadas, John McCarthy ofrece la siguiente definición en este documento del 2004 (enlace externo a ibm.com), "Es la ciencia e ingeniería de hacer máquinas inteligentes, especialmente programas informáticos inteligentes. Se relaciona con la tarea similar de usar equipos para comprender la inteligencia humana, pero la IA no tiene que ajustarse a los métodos biológicos observables".


Sin embargo, décadas antes de esta definición, el nacimiento de la conversación sobre inteligencia artificial lo marcó el trabajo fundamental de Alan Turing, "Computing Machinery and Intelligence" (enlace externo a ibm.com), que se publicó en 1950. En este artículo, Turing, a menudo referido como el "padre de la informática", hace la siguiente pregunta: "¿Pueden pensar las máquinas?"  A partir de ahí, ofrece una prueba, ahora conocida como la "Prueba de Turing", en la que un interrogador humano intentaría distinguir entre una respuesta de texto de computadora y humana. Si bien esta prueba ha sido objeto de mucho escrutinio desde su publicación, sigue siendo una parte importante de la historia de la IA, así como un concepto continuo dentro de la filosofía, ya que utiliza ideas en torno a la lingüística.


Stuart Russell y Peter Norvig procedieron a publicar Inteligencia Artificial: Un Enfoque Moderno (enlace externo a ibm.com), convirtiéndose en uno de los principales libros de texto en el estudio de IA. En él, profundizan en cuatro posibles objetivos o definiciones de la IA, que diferencia los sistemas informáticos en función de la racionalidad y el pensamiento frente a la actuación:


Enfoque humano:


Sistemas que piensan como humanos

Sistemas que actúan como humanos

Enfoque ideal:


Sistemas que piensan racionalmente

Sistemas que actúan racionalmente

La definición de Alan Turing habría caído bajo la categoría de "sistemas que actúan como humanos".


En su forma más simple, la inteligencia artificial es un campo que combina la informática y conjuntos de datos robustos para permitir la resolución de problemas. También engloba los subcampos del aprendizaje automático y el aprendizaje profundo, que se mencionan con frecuencia junto con la inteligencia artificial. Estas disciplinas están compuestas por algoritmos de IA que buscan crear sistemas expertos que hagan predicciones o clasificaciones basadas en datos de entrada.


A lo largo de los años, la inteligencia artificial ha pasado por muchos ciclos de exageración, pero incluso para escépticos, el lanzamiento de ChatGPT de OpenAI parece marcar un punto de inflexión. La última vez que la IA generativa fue tan importante, los avances se produjeron en la visión por ordenador, pero ahora el salto adelante se produce en el procesamiento de lenguaje natural. Y no es solo lenguaje: los modelos generativos también pueden aprender la gramática del código de software, moléculas, imágenes naturales y una variedad de otros tipos de datos.


Las aplicaciones para esta tecnología están creciendo cada día, y apenas estamos empezando a explorar las posibilidades. Pero a medida que se extiende el uso de la IA en las empresas, las conversaciones sobre ética adquieren una importancia crítica. Para leer más sobre dónde se encuentra IBM dentro de la conversación en torno a la ética de la IA, lea más aquí.


Ya disponible: watsonx

Multiplique la potencia de la IA para su empresa con la plataforma de datos e IA de nueva generación de IBM.


Watsonx: primeros pasos 

Contenido relacionado

IBM® watsonx Orchestrate


Asistente de IBM Watsonx


Conozca el aprendizaje de Gen AI para desarrolladores


Cómo crear IA responsable a escala

Explore la guía 

Tipos de inteligencia artificial: IA débil frente a IA fuerte

La IA débil, también llamada IA estrecha o Inteligencia artificial estrecha (ANI), es una IA entrenada y enfocada para realizar tareas específicas. La IA débil impulsa la mayor parte de la IA que nos rodea hoy. "Estrecho" podría ser un descriptor más preciso para este tipo de IA, ya que no tiene nada de débil; permite algunas aplicaciones muy potentes, como Siri de Apple, Alexa de Amazon, IBM Watson y vehículos autónomos.


La IA robusta está conformada por la inteligencia artificial general (IAG) y la superinteligencia artificial (SIA). La inteligencia artificial general (IAG), o la IA general, es una forma teórica de IA en la que una máquina tendría una inteligencia igual a la de los humanos; sería autoconsciente y tendría la capacidad de resolver problemas, aprender y planificar para el futuro. La superinteligencia artificial (SIA), también conocida como superinteligencia, superaría la inteligencia y la capacidad del cerebro humano.


Si bien la IA robusta todavía es completamente teórica y no tiene ejemplos prácticos de uso actualmente, no significa que los investigadores de IA no estén también explorando su desarrollo. Mientras tanto, los mejores ejemplos de la SIA provienen de la ciencia ficción, como HAL, la malévola computadora superhumana en 2001: Odisea del espacio.


Aprendizaje profundo vs. Aprendizaje automático

Dado que el deep learning y el machine learning tienden a ser utilizados indistintamente, vale la pena señalar sus diferencias. Como se mencionó anteriormente, ambos son subcampos de la inteligencia artificial, y el deep learning es en realidad un subcampo del machine learning.


En realidad, el aprendizaje profundo se compone de redes neuronales. "Profundo" en el deep learning se refiere a una red neuronal compuesta por más de tres capas (que incluirían las entradas y la salida), que se puede considerar un algoritmo de deep learning. 


La diferencia entre el deep learning y el machine learning es cómo aprende cada algoritmo.


El deep learning automatiza gran parte de la fase de extracción de características del proceso, lo que elimina parte de la intervención humana manual necesaria y permite el uso de conjuntos de datos más grandes. El deep learning se podría considerar como "machine learning escalable", tal como Lex Fridman señaló en la misma conferencia del MIT mencionada anteriormente.


El machine learning tradicional, o "non-deep", depende más de la intervención humana para aprender. Los expertos humanos determinan la jerarquía de características para comprender las diferencias entre las entradas de datos, lo que por lo general requiere más datos estructurados para aprender.


El "deep" machine learning puede utilizar los conjuntos de datos etiquetados, también conocidos como aprendizaje supervisado, para informar a su algoritmo, pero no requiere necesariamente un conjunto de datos etiquetados. Puede ingerir datos no estructurados en su forma original (como por ejemplo texto o imágenes) y puede determinar automáticamente la jerarquía de características que distinguen diferentes categorías de datos.


A diferencia del machine learning, no requiere intervención humana para procesar datos, lo que permite escalarlo de maneras más interesantes.

0 Comentarios