La adopción de nuevas tecnologías depende en gran medida de su fiabilidad, accesibilidad y mejora con respecto a las alternativas existentes. En el MIT, un grupo de estudiantes de doctorado del MIT-IBM Watson AI Lab Summer Program está abordando los desafíos clave de la inteligencia artificial (IA) para promover su utilidad y despliegue.
Aprendiendo a Confiar (y Cuándo No) en la IA
Uno de los mayores obstáculos para la adopción generalizada de la IA es la falta de confianza en sus resultados. Andrey Bryutkin, estudiante de matemáticas del MIT, está investigando cómo mejorar la fiabilidad de los modelos de IA. Su trabajo se centra en la ‘incertidumbre de la incertidumbre’ de los modelos de lenguaje grandes (LLM).
El equipo de MIT-IBM utiliza pequeñas redes neuronales, llamadas ‘probes’, para identificar respuestas no confiables de los LLM. Estas ‘probes’ se entrenan junto con los LLM y se utilizan para señalar respuestas problemáticas. El equipo mide gradientes, sensibilidad a ‘prompts’ y datos fuera de distribución para determinar la fiabilidad de la ‘probe’ y las áreas de datos difíciles de predecir. Este método ayuda a identificar posibles errores en el etiquetado de los datos, lo cual es crucial para la confianza en los sistemas de IA.
Otra forma de asegurar respuestas fiables de un LLM es complementar su conocimiento con bases de datos externas y confiables. Jinyeop Song, estudiante de física, está desarrollando un framework de aprendizaje por refuerzo que optimiza la comunicación entre LLMs y grafos de conocimiento (KG). Este sistema utiliza un agente que realiza acciones de recuperación específicas para obtener información relevante de los KGs y la añade al contexto del LLM, mejorando la precisión, transparencia y eficiencia de las respuestas.
Optimizando el Uso de los Recursos Computacionales
La rapidez y la integridad de una respuesta son tan importantes como su precisión. Songlin Yang, estudiante de EECS, está trabajando en la optimización de los modelos para manejar textos largos y datos que evolucionan con el tiempo. Su investigación se centra en las limitaciones de los transformers, la arquitectura subyacente de muchos LLMs.
Los transformers sufren de alta complejidad computacional al procesar secuencias largas y de limitaciones en su capacidad para capturar cambios de estado internos a lo largo del tiempo. Para abordar estos problemas, el equipo de MIT-IBM está explorando algoritmos eficientes en hardware y arquitecturas híbridas que combinan diferentes mecanismos de atención. También están experimentando con nuevos métodos de codificación posicional que permiten una comprensión más profunda de la información secuencial.
Nuevas Visiones: IA y Datos Visuales
La información visual es fundamental para la comprensión del mundo. Dos estudiantes están explorando cómo los modelos de lenguaje visual (VLM) pueden aprender a partir de datos visuales y generar código.
Jovana Kondic, de EECS, está investigando la comprensión de documentos visuales, específicamente gráficos. Los gráficos contienen elementos complejos que requieren reconocimiento óptico de caracteres y razonamiento numérico. Para mejorar el rendimiento de los modelos en estas tareas, Kondic está creando un conjunto de datos sintéticos de gráficos a partir de código, llamado ChartGen. Este sistema utiliza un VLM para leer gráficos y generar el código Python que probablemente se utilizó para crearlos, produciendo más de 200,000 pares únicos de gráficos y su código correspondiente.
Leonardo Hernandez Cano, también de EECS, se centra en la generación de texturas visuales para aplicaciones CAD. Está desarrollando un sistema de síntesis de programas que aprende a refinar código por sí solo. El sistema comienza con una descripción de textura dada por un usuario en forma de imagen y luego genera un programa Python inicial que produce texturas visuales. A través de refinamientos iterativos, el sistema aprende a crear visualizaciones con la luminosidad, color e iridiscencia deseadas, imitando materiales reales.
Conclusión
Estos proyectos representan un esfuerzo conjunto para crear una inteligencia artificial más robusta y práctica. Al abordar los desafíos de la fiabilidad, la eficiencia y el razonamiento multimodal, estos investigadores del MIT están allanando el camino para sistemas de IA más poderosos, confiables y rentables para aplicaciones científicas y empresariales del mundo real.
Fuente: MIT News – AI
Leave a Comment