La IA se vuelve más inteligente cada día, pero aún no puede igualar la mente humana

Por guy Perelmuter 7 minutos de lectura

La investigación en inteligencia artificial se puede subdividir de diferentes maneras: en función de las técnicas utilizadas (como sistemas expertos, redes neuronales artificiales o computación evolutiva) o de los problemas abordados (por ejemplo, visión por computadora, procesamiento del lenguaje o sistemas predictivos). Actualmente, una de las técnicas de inteligencia artificial más utilizadas para el desarrollo de nuevas aplicaciones se conoce como aprendizaje automático. En términos básicos, el aprendizaje automático busca presentar algoritmos con el mayor volumen de datos posible, permitiendo que los sistemas desarrollen la capacidad de sacar conclusiones de forma autónoma. Una forma sencilla de describir el proceso es la siguiente: Si queremos enseñar un sistema de reconocimiento de imágenes para identificar una clave, le mostramos la mayor cantidad de claves posibles para su entrenamiento. Luego, la estructura misma aprende a identificar si las imágenes siguientes presentadas son claves o no, incluso si el sistema nunca vio estas imágenes durante su entrenamiento.

Reconocer una imagen solía ser una tarea en la que los humanos tenían una clara ventaja sobre las máquinas, hasta hace relativamente poco tiempo. Iniciativas como el proyecto ImageNet, formulado en 2006, han servido para reducir significativamente esta diferencia. Dirigido por el investigador chino-estadounidense Fei-Fei Li, profesor de informática en la Universidad de Stanford que también se desempeñó como director del Laboratorio de Inteligencia Artificial de Stanford (SAIL), el proyecto ImageNet consiste en una base de datos con casi 15 millones de imágenes que han sido clasificadas por humanos. .

Este repositorio de información es la materia prima utilizada para entrenar los algoritmos de visión por computadora y está disponible en línea de forma gratuita. Para impulsar el desarrollo en el área del reconocimiento de imágenes por computadora, en 2010 se creó el ImageNet Large Scale Visual Recognition Challenge (ILSVRC), donde los sistemas desarrollados por equipos de todo el mundo compiten para clasificar correctamente las imágenes que se muestran en sus pantallas. La evolución de los resultados obtenidos en menos de una década es una prueba de los extraordinarios avances logrados en el campo del aprendizaje profundo (actualmente una de las técnicas más utilizadas en inteligencia artificial y un habilitador clave de, lo adivinaste, deep tech) . En 2011, se consideró buena una tasa de error del 25%; en 2017, de los 38 equipos participantes, no menos de 29 obtuvieron una tasa de error inferior al 5%.

Durante décadas, el desarrollo de programas informáticos se basó en la ecuación "reglas + datos = resultados". En otras palabras, las reglas se ingresaron de antemano, se procesaron los datos de entrada y se produjeron los resultados. Pero el paradigma utilizado por los sistemas basados ​​en el aprendizaje profundo es sustancialmente diferente y busca imitar la forma en que los humanos aprenden: "datos + resultados = reglas".

Implementados típicamente a través de redes neuronales artificiales (estructuras que son capaces de extraer las características necesarias para la creación de reglas a partir de los datos y producir resultados), estos sistemas están en la vanguardia de las plataformas de reconocimiento facial, reconocimiento de voz, visión por computadora, medicina de diagnóstico y más. Una vez que se presenta un conjunto suficientemente grande de ejemplos (datos) con sus respectivas clasificaciones (resultados), el sistema obtiene una representación interna de las reglas y puede extrapolar los resultados para datos que no ha visto antes.

Haciendo lo correcto

Aunque los sistemas basados ​​en el aprendizaje profundo pueden mejorar la precisión de prácticamente cualquier tarea de clasificación, es fundamental recordar que su precisión depende en gran medida de la calidad y el tipo de datos utilizados durante la fase de aprendizaje. Este es uno de los mayores factores de riesgo para el uso de esta tecnología: si el entrenamiento no se realiza con cuidado, los resultados pueden ser peligrosos. En un estudio de 2016, tres investigadores de la Universidad de Princeton, Aylin Caliskan, Joanna Bryson y Arvind Narayanan, utilizaron casi un billón de palabras en inglés como datos de entrada. Los resultados indicaron que "el lenguaje en sí contiene sesgos históricos, ya sean moralmente neutrales en cuanto a insectos o flores, problemáticos en cuanto a raza o género, o incluso simplemente verídicos, que reflejan la distribución del género con respecto a carreras o nombres".

Las máquinas no tienen libre albedrío; siempre siguen las instrucciones de sus programadores.

También en 2016, la revista mensual de la Association for Computing Machinery (la sociedad de aprendizaje internacional más grande del mundo para la informática, fundada en 1947) publicó un artículo de Nicholas Diakopoulos (un doctorado en ciencias de la computación del Instituto de Tecnología de Georgia) titulado “Rendición de cuentas en Toma de decisiones algorítmica ". Si los llamados sistemas inteligentes continúan su expansión en diferentes áreas de negocios, servicios y gobiernos, será fundamental que no se contaminen con los sesgos que los humanos desarrollan, ya sea consciente o inconscientemente. Es probable que el modelo ideal implique la colaboración entre máquinas y humanos, y es probable que estos últimos sean responsables de tomar decisiones sobre temas con matices y complejidades que los modelos y algoritmos aún no comprenden completamente.

La percepción de la trascendencia de los cambios futuros en prácticamente todas las industrias se refleja en el aumento de las inversiones en startups del sector: según la firma CB Insights, esta cifra pasó de menos de $ 2 mil millones en 2013 a más de $ 25 mil millones en 2019. Empresas de tecnología como Google, Microsoft, Apple, Facebook y Amazon ya incorporan técnicas inteligentes en sus productos y se están moviendo hacia un futuro en el que prácticamente todas sus líneas de negocio tendrán un componente de aprendizaje automático incorporado. Esto se puede aplicar a todo tipo de aplicaciones: interpretación simultánea automática durante una llamada, recomendaciones para lo que queramos (o queramos) comprar online, o reconocimiento de voz correcto en interacciones con nuestros teléfonos móviles.

Uno de los grandes retos para las empresas es definir la mejor forma de utilizar este conjunto de nuevas técnicas, que contendrán aspectos probabilísticos en sus salidas. En otras palabras, los algoritmos estiman una solución a un problema dado, sin garantía de que sea realmente la mejor solución. O el proceso es robusto y confiable, en función de la calidad de implementación y de las técnicas utilizadas, o los resultados serán perjudiciales para la salud financiera de la empresa en cuestión.

Paz y guerra: las máquinas no tienen libre albedrío

La integración de armas y mecanismos de inteligencia artificial ofrece la posibilidad de armas verdaderamente autónomas (sistemas de armas autónomos o armas autónomas letales). Un dron armado equipado con software de reconocimiento facial podría programarse para matar a una determinada persona o grupo de personas y luego autodestruirse, haciendo prácticamente imposible determinar su origen.

Las máquinas no tienen libre albedrío; siempre siguen las instrucciones de sus programadores. Estas armas presentan riesgos importantes, incluso cuando se usan solo con fines de defensa (una línea tenue con seguridad), y evocan imágenes de los robots asesinos sobre los que los autores de ciencia ficción han estado escribiendo durante décadas.

En 2015, en la Conferencia conjunta internacional sobre inteligencia artificial, el físico teórico Stephen Hawking (1942-2018), el empresario Elon Musk y el neurocientífico Demis Hassabis (uno de los fundadores de DeepMind) firmaron una carta en la que abogaba por la abolición de este tipo de arma , que fue adquirida por Google en 2014), entre otros. La discusión aún está en curso, pero hay ejemplos históricos que hablan de los beneficios de la participación de humanos como Vasili Arkhipov (1926-1998) en decisiones de vida o muerte.

En abril de 1962, un grupo de exiliados cubanos patrocinados por la Agencia Central de Inteligencia de Estados Unidos fracasó en su intento de invadir Bahía de Cochinos en Cuba. Para evitar una futura invasión, el gobierno cubano pidió a la Unión Soviética que instalara misiles nucleares en la isla. Luego de obtener pruebas inequívocas de que estos misiles efectivamente estaban siendo instalados, Estados Unidos montó un bloqueo naval para evitar que llegaran más misiles a la isla y exigió el retiro de los que ya estaban instalados, que eran apenas 150 km (90 millas). de Florida. En octubre de 1962, el mundo vio cómo las tensiones entre Estados Unidos y la Unión Soviética aumentaban y alcanzaban su punto máximo.

El 27 de octubre, cuando un submarino soviético B-59 estaba ubicado en aguas internacionales cercanas, una tripulación de la Marina de los Estados Unidos lanzó cargas de profundidad cerca del barco para obligarlo a salir a la superficie. Sin contacto desde Moscú durante varios días y sin poder usar la radio, el capitán del submarino, Valentin Savitsky, estaba convencido de que la Tercera Guerra Mundial había comenzado y quería lanzar un torpedo nuclear contra los estadounidenses. Pero la decisión de lanzar un arma nuclear desde el B-59 debía ser unánime entre los tres funcionarios: el capitán Savitsky, el oficial político Ivan Maslennikov y el segundo al mando Vasili Arkhipov, que solo tenía 39 años en ese momento. Él fue el único en disentir y recomendar que el submarino saliera a la superficie para contactar con Moscú. A pesar de la evidencia que apuntaba a la guerra, Arkhipov se mantuvo firme y de hecho salvó al mundo de un conflicto nuclear.

Adaptado con permiso de Guy Perelmuter's Presente y futuro: negocios, ciencia y la revolución de la tecnología profunda, publicado por Fast Company Press.

Guy Perelmuter es el fundador de GRIDS Capital, una firma de capital de riesgo de tecnología profunda que se enfoca en inteligencia artificial, robótica, ciencias de la vida e infraestructura tecnológica.

Más información

chico Perelmuter