Algoritmos
Un algoritmo es un conjunto de operaciones que busca resolver un problema determinado a través de secuencias lógicas. Este concepto clave en el funcionamiento de las Inteligencias Artificiales, es un tipo de procedimiento esquemático que emplea una serie de pasos, como una receta, los cuales pueden ser formulados de diferentes maneras cuidando que en dicha combinación no se produzca una ambigüedad.
Entendiendo a un algoritmo como un medio para alcanzar un fin X, podemos decir que para operar como tal debe cumplir con cuatro características:
- Ser preciso: cada paso y su orden de realización deben ser claros y concretos.
- Estar definido: se deben obtener resultados delimitados a las órdenes y estos siempre deben ser los mismos.
- Ser finito: su diseño debe tener un número limitado de pasos.
- Estar ordenado: la secuencia de pasos debe seguir un orden que no puede ser alterado.
Aprendizaje Automático
Aprendizaje Automático
El aprendizaje automático es un subconjunto de Inteligencia Artificial (IA) que busca desarrollar sistemas que aprenden, o mejoran el rendimiento interpretativo, en función de los datos que consumen automáticamente y a través de ejemplos continuados. Todo aprendizaje autónomo es IA, pero no toda IA es aprendizaje autónomo.
Existen dos tipos de aprendizaje automático:
- Aprendizaje automático supervisado: Con este modelo, un humano que administra datos actúa como guía y enseña al algoritmo (el motor de funcionamiento del programa de aprendizaje) las conclusiones que debe hacer.
- Aprendizaje automático no supervisado: Este modelo utiliza un enfoque más independiente, en el que una computadora aprende a identificar procesos y patrones complejos sin que un ser humano proporcione una guía cercana y constante. El aprendizaje autónomo no supervisado implica la capacitación basada en datos que no tiene etiquetas o un resultado específico definido.
Inteligencia Artificial
Inteligencia Artificial
El término Inteligencia Artificial (IA), perteneciente al campo de la ciencia informática, se refiere a aquellos sistemas o máquinas que mediante su funcionamiento imitan la inteligencia humana para realizar tareas. A su vez cuentan con la característica de tener capacidad iterativa a partir de la información que recopilan. Esta capacidad de volverse "más inteligente" y aprende más rápido, se logra gracias a la inmensa cantidad de datos con las que se las entrena. Gracias al Aprendizaje Automático, al Aprendizaje Profundo, y desde hace unos años con el auge de la Internet de las Cosas (IoT) que gracias a sus sensores ubicuos añade cada vez más datos por analizar, las Inteligencias Artificiales son más poderosas cada día. Dado este desarrollo exponencial existen posturas enfrentadas respecto al futuro cercano. Algunas más cercanas a escenarios ya planteados por la ciencia ficción (pero no por esto menos posibles), premonizan una realidad futura distópica donde las máquinas controlarán al ser humano. Por otro lado, están quienes predicen que las distintas inteligencias artificiales ayudarán a que el ser humano se desarrolle en numerosas áreas que hasta ahora eran impensadas para su intelecto y capacidades, permitiendo por ejemplo, extender los años de vida o controlar la evolución genética artificialmente.
Las inteligencias artificiales podrían dividirse en dos tipos: Específicas o estrechas ( por su nombre en inglés Narrow AI), y de tipo o propósito general (Artificial General Intelligence). Las primeras también pueden ser llamadas como Inteligencias Artificiales débiles, ya que operan en un contexto limitado y utilizando estrategias humanas. Suelen estar enfocadas en resolver tareas concretas, generalmente de una manera sumamente efectiva. Algunos ejemplos cotidianos de estas tecnologías son:
- Los bots conversacionales (chatbots) que utilizan diferentes empresas en atención al clientes, utilizan IA para comprender más rápido los problemas de los clientes y proporcionar respuestas más eficientes para futuras consultas.
- Los asistentes virtuales de empresas como Apple, Google, Amazon, Huawei, Xiaomi, entre otras, utilizan la IA para analizar información provenientes de numerosas fuentes, para hacer de sus respuestas y acciones cada vez más precisas.
- Los motores de recomendación presentes en aplicaciones de streaming de música, contenido audiovisual y tiendas en general, que utilizan la IA para proporcionar recomendaciones automatizadas según los hábitos de consumo de los usuarios.
- Aplicaciones de movilidad y transporte público, que utilizan información en tiempo real para trazar rutas más eficientes.
- O incluso un sistema entrenado para jugar un juego en particular:
Por otro lado están las inteligencias artificiales de propósito general. Estas son aquellas que muchas veces se han visto en películas de ciencia ficción, como HAL-9000 en 2001: Odisea en el espacio (1968), Jarvis, el asistente virtual de Tony Stark en Iron Man, o el Arquitecto en Matrix. Estos ejemplos ficcionales aún están lejos de poder ser realidad. Sin embargo existen numerosos desarrollos en busca de lograr la primera IA de propósito general que se asemeje a aquellos ejemplos.
De lo que no cabe duda es de la capacidad actual de estas tecnologías y de lo que aún queda por ver en el futuro.
Big Data
Big Data
La Big Data (término habitualmente utilizado en inglés, pero que en español significaría grandes volúmenes de datos) son aquellos datos estructurados, semiestructurados y no estructurados que tienen el potencial de ser extraídos para obtener información, pero dado su inmenso tamaño o su complejidad, no pueden manejarse con los métodos tradicionales de procesamiento.
La Big Data suele poder calificarse en base a tres “V": volumen, variedad y velocidad. El volumen se refiere al tamaño de datos; la variedad, a la amplia cantidad de formatos no estándar, y la velocidad, a la capacidad de procesamiento. Hace varios años, IBM impulsó a nivel mundial una cuarta “V”, veracidad, que hace referencia a comprobar que la información que se registra, almacena y analiza sea verdadera.
Es gracias a esta cantidad de datos que las IA, a través del Aprendizaje Automático y el Aprendizaje profundo, son cada vez más poderosas.
Redes Neuronales Artificiales
Redes Neuronales Artificiales
Las Redes Neuronales Artificiales (RNA) no son tecnologías nuevas. Aparecieron en los años ‘40 del siglo pasado, cuando por primera vez se desarrolló un modelo matemático simple de una neurona. Estas redes artificiales son procesadores de información inspirados en el funcionamiento de los sistemas nerviosos biológicos: emulando el modo en que el cerebro humano procesa la información, funcionando simultáneamente un número elevado de unidades de procesamiento interconectadas que parecen versiones abstractas de neuronas.
Estas unidades de procesamiento se organizan en capas:
- Una capa de entrada, con unidades que representan los campos de entrada.
- Una o varias capas ocultas.
- Una capa de salida, con una unidad o unidades que representa el campo o los campos de destino.
Estas unidades se conectan presentándose los datos de entrada en la primera capa con diferentes ponderaciones. Luego los valores se propagan desde cada neurona de esta primera capa hasta las neuronas de la capa siguiente. Finalmente, se envía un resultado a la capa de salida. Al principio, todas las ponderaciones son aleatorias y las respuestas que resultan de la red son, posiblemente, erróneas. Pero la red “aprenderá” a través del entrenamiento. Continuamente se presentarán a la red nuevos ejemplos para los que se conoce el resultado, y las respuestas que proporciona se comparan con los resultados conocidos. La información procedente de esta comparación irá cambiando las ponderaciones gradualmente. A medida que progresa el entrenamiento, la red se va haciendo cada vez más precisa en la replicación de resultados conocidos. Una vez entrenada, la red se podrá aplicar a casos futuros en los que se desconoce el resultado.
Aprendizaje Profundo
Aprendizaje Profundo
El Aprendizaje Profundo es un subconjunto del Aprendizaje Automático basado en las Redes Neuronales Artificiales. El proceso de aprendizaje es llamado profundo porque la estructura de redes neuronales artificiales se compone de varias capas de entrada, salida y ocultas. Cada capa contiene unidades que transforman los datos de entrada en información que la capa siguiente puede usar para realizar una tarea de predicción determinada. Gracias a esta estructura, una máquina puede aprender a través de su propio procesamiento de datos. En el Aprendizaje Automático, se debe indicar al algoritmo cómo realizar una predicción precisa; para ello debe conseguir más información (por ejemplo, realizando la extracción de características). En el aprendizaje profundo, en cambio, el algoritmo en funcionamiento puede obtener información sobre cómo hacer una predicción precisa a través de su propio procesamiento de datos, gracias a la estructura de su red neuronal artificial.
Algunas comparaciones:
Todo el aprendizaje automático | Solo aprendizaje profundo | |
---|---|---|
Número de puntos de datos | Puede usar pequeñas cantidades de datos para hacer predicciones. | Necesita usar grandes cantidades de datos de entrenamiento para hacer predicciones. |
Dependencias del hardware | Puede trabajar en equipos lentos. No necesita una gran cantidad de potencia de cálculo. | Depende de máquinas rápidas. Realiza intrínsecamente un gran número de operaciones de multiplicación de matrices.Una GPU puede optimizar eficazmente estas operaciones. |
Proceso de características | Requiere que los usuarios creen e identifiquen con precisión las características. | Aprende las características de alto nivel de los datos y crea nuevas características automáticamente. |
Enfoque del aprendizaje | Divide el proceso de aprendizaje en pasos más pequeños.Luego, combina los resultados de cada paso en una salida. | Pasa por el proceso de aprendizaje mediante la resolución del problema de un extremo a otro. |
Tiempo de ejecución | Comparativamente, tarda menos tiempo en entrenarse; puede tardar unos segundos o unas pocas horas. << /td> | Normalmente, tarda demasiado tiempo en entrenarse, porque los algoritmos de aprendizaje profundo tienen muchas capas. |
Salida | La salida suele ser un valor numérico, como una puntuación o una clasificación. | La salida puede tener varios formatos, como texto, una puntuación o un sonido. |
IoT
Internet de las Cosas
IoT
El término IoT (Internet de las cosas, en inglés "Internet of Things") hace referencia a los sistemas de interconexión de dispositivos físicos que reciben y envían datos a través de redes inalámbricas (y en algunos casos cableadas también) sin la intervención humana. Lo que hace posible esta vinculación constante es la integración de dispositivos con sensores de todo tipo ubicados en diferentes objetos del entorno. Por ejemplo, un termostato inteligente recibe datos de la ubicación del teléfono del usuario mientras conduce de regreso a su casa, y los utiliza para ajustar la temperatura deseada antes de que la persona llegue a su hogar. Esto se logra sin intervención humana (más allá de la primera configuración) y en algunos casos, mediante Aprendizaje Profundo y una Inteligencia Artificial remota (esto son los asistentes virtuales trabajando desde un dispositivo pero procesando la información en los servidores centrales de la compañía que presta el servicio), podrían proponer mejoras en la configuración elegida por el usuario.
Existen diferentes enfoques para la utilización de la IoT según el ámbito en que se la utilice. Algunos de ellos son:
- IoT empresarial: muy relacionado con la Big Data dado el inmenso volumen de datos que procesa constantemente).
- IoT industrial (IIoT): con la implementación de sensores especializados en las partes de la maquinaria que son más propensas a las averías por uso excesivo, se logra realizar un mantenimiento predictivo y mejorar el desempeño de los trabajadores (ejemplo de recopilación y análisis de datos en tiempo real), transferir datos para que los ingenieros mejoren los diseños de los modelos nuevos, entre otros usos.
- IoT en la agricultura: por ejemplo, sensores de humedad en los campos de cultivo se conectan a las aplicaciones de IoT que controlan la maquinaria de riego en y activan automáticamente los sistemas en función de los datos de los sensores, sin necesidad de intervención humana.
- IoT en la logística y el transporte: en el sector de la logística y el transporte existen hace bastante tiempo etiquetas en los contenedores de envío que cuentan con dispositivos de identificación por radiofrecuencia (RFID). Estas simples etiquetas almacenan datos digitalmente que luego un lector puede registrar a través de ondas de radio. Esto permitió el desarrollo de dispositivos de seguimiento inteligentes, permitiendo el análisis de los datos de los envíos en tiempo real en cada tramo de la cadena de suministro. Las tarjetas de transporte público, como la SUBE en Argentina, funcionan gracias a este tipo de tecnologías.
Artículos relacionados
Deep Fake
Deep Fake
Si bien hoy en día son muy utilizados en infinitos memes (contenidos de todo tipo, de tono humorístico, que utiliza un una imagen o video ya existente para darle un nuevo sentido) el origen de esta tecnología es diferente. El primer Deep Fake (“falso profundo” en inglés) que apareció en Internet lo hizo en la plataforma Reddit y consistía en un vídeo de carácter pornográfico en el cual la cara de la protagonista había sido reemplazada por la de una actriz famosa. Para realizar este video no se necesitó de una super computadora, solamente un dispositivo de uso personal y un algoritmo que gracias al Aprendizaje Profundo permitía manipular las imágenes del video original. De este modo el usuario, que utilizaba el alias de “Deepfake”, publicó lo que conocemos como el primer vídeo Deepfake y abrió las puertas a un nuevo tipo de desarrollos para fines múltiples.
Desde su creación, esta tecnología se simplificó a tal nivel que existen numerosas “Deep Fake app” gratuitas, e incluso dentro de ciertas aplicaciones como Instagram o SnapChat, el funcionamiento de los filtros que permite la manipulación de imágenes del usuario trabajan de forma muy similar.
Como todas las tecnologías digitales de nuestra época, es posible utilizar el Deep Fake con fines poco éticos. Es por esto que han aparecido organismos como el Deeptrace, o incluso Facebook y Microsoft, que crean herramientas para eliminar aquellos tipo de publicaciones que no sean creadas con fines nobles.
Test de Turing
Test de Turing
Si bien no es una tecnología, el concepto de Test de Turing es importante para comprender nuestro presente tecnológico.
El test de Turing es una prueba de habilidad que desarrolló Alan Turing en 1950, en su artículo académico llamado "Maquinaria computacional e Inteligencia".Este test busca evaluar la capacidad de una máquina para exhibir un comportamiento inteligente similar al de un ser humano de tal manera que, interactuando con ella en una conversación, una persona pueda determinar si su interlocutor es una máquina o una persona. Más que tratar de determinar si una máquina está pensando, Turing sugiere con su prueba que debemos preguntarnos si una máquina puede ganar un juego llamado "El Juego de Imitación". El desarrollo es por turnos e involucra a tres participantes. El jugador A (hombre), el jugador B (mujer) y el jugador C ( que cumple con el papel del interrogador) puede ser de cualquier sexo. En el Juego de la Imitación el jugador C no puede ver ni al jugador A ni al B (Solo los conoce por X y Y); éste se puede comunicar con ellos solo por medio de notas escritas u otra forma que no de detalles sobre su género. Mediante preguntas sobre el jugador A y el jugador B, el jugador C trata de determinar cual es hombre y cuál es mujer. El rol del jugador A es llevar al interrogador a tomar la decisión incorrecta, mientras que el jugador B trata de ayudarlo a tomar la decisión correcta.En base a ese juego Turing propone una variación que involucre a una computadora: "¿Qué pasa cuando una máquina toma el papel del jugador A en este juego?". ¿El interrogador decidirá equivocadamente tan seguido como cuando el juego es jugado por un hombre y una mujer? Estas preguntas reemplazan la pregunta original, ¿las computadoras pueden pensar?" Así mismo, el juego modificado se convierte en uno donde los tres participantes se encuentran en cuartos aislados: una computadora (que será el sujeto de prueba), un humano y un juez (humano). El juez puede conversar tanto con la computadora como con el humano mediante escritura en una terminal. Tanto la computadora como el jugador B tratarán de convencer al juez de que son humanos. Si el juez no puede decir quien es quien de manera consistente, la computadora gana el juego.