computerworld_inhace 4d
Se podría pensar que no es gran cosa que los investigadores hayan encontrado una manera de reducir los requisitos informáticos para uno de los muchos pasos involucrados en el entrenamiento de un modelo de IA para ayudar a los robots a manipular objetos geométricos simples. Sin embargo, la preocupación por el creciente costo de alimentar los centros de datos para aplicaciones de IA es tal que este pequeño y en gran medida anodino hallazgo provocó titulares impresionantes como “100 veces menos energía: el avance que podría resolver la enorme crisis energética de la IA”. No crea en las exageraciones. Nadie cuestiona los hallazgos de los investigadores, pero los informes sobre ellos pueden ser algo exagerados: "El salto de la investigación realizada en el estudio arXiv a la conclusión de los artículos de noticias asociados es cosa de mitos. Es el tipo de exageraciones que Gartner advierte a sus clientes que deben evitar", dijo Nader Henein, analista vicepresidente de Gartner. Los investigadores, del Laboratorio de Interacción Humano-Robot de la Universidad de Tufts en EE. UU. y el Centro de Visión, Automatización y Control en Viena, Austria, compararon el costo de capacitación y el rendimiento de los modelos de visión-lenguaje-acción (VLA) con el de una arquitectura neurosimbólica que utiliza planificación simbólica basada en PDDL, y reportaron los resultados en un artículo, The Price Is Not Right: Neuro-Symbolic Methods Outperform VLAs on Structured Long-Horizon Manipulation Tasks with Significantly Lower. Consumo de energía. El artículo ha sido aceptado para su presentación en la Conferencia Internacional IEEE sobre Robótica y Automatización. Yuri Goryunov, CIO de la consultora Acceligence, también cuestionó si los hallazgos del estudio sobre ahorro de energía son aplicables a problemas más amplios en la empresa. "El titular '100 veces menos potencia' es engañoso. Lo que los investigadores realmente demostraron es que un sistema basado en reglas usa menos energía que un modelo neuronal en un solo rompecabezas. Y fue en simulación, con las reglas codificadas a mano por expertos de antemano", dijo Goryunov. "Eso no es un gran avance. Es una calculadora superando a una supercomputadora en aritmética". Goryunov argumentó que "los ahorros desaparecen en el momento en que se llega a la complejidad del mundo real. Fuentes de datos dispares y entradas confusas, situaciones ambiguas sin conjuntos de reglas claras o, de hecho, cualquier dominio donde las reglas no sean ya obvias. Y alguien todavía tiene que escribir todas esas reglas". Los investigadores no respondieron a una solicitud de comentarios, pero probablemente no estarían en desacuerdo con Goryunov. En su conclusión, afirman: "Estos resultados resaltan importantes compensaciones entre los enfoques de modelos básicos de extremo a extremo y las arquitecturas de razonamiento estructurado. Para tareas de manipulación regidas por restricciones procedimentales explícitas, la incorporación de una estructura simbólica puede generar ventajas sustanciales en confiabilidad, eficiencia de datos y consumo de energía". Algunos de estos nuevos enfoques hipotéticos de IA discutidos tienen potencial, dijo Goryunov, citando específicamente el trabajo de investigación realizado por Google. "El enfoque de Google es hacer que la IA que ya estamos ejecutando sea dramáticamente más barata y más rápida. El enfoque de Tufts es reemplazarla con algo arquitectónicamente diferente para una clase limitada de tareas. Desde un punto de vista empresarial, no hay competencia. Puede implementar los hallazgos de Google mañana a través de sus proveedores de modelos existentes. Tufts requiere que reescriba su arquitectura, codifique manualmente sus reglas de dominio y espere que su problema parezca un rompecabezas". Los beneficios del cortoplacismo Nathan Marlor, jefe de datos e inteligencia artificial de la consultora irlandesa Version 1, dijo que aunque la investigación de Tufts puede no tener una aplicabilidad inmediata a las implementaciones de TI empresariales, podría afectar las negociaciones de precios con los hiperescaladores. "Para la TI empresarial no hay nada que hacer aquí. Nadie está construyendo planificadores PDDL internamente. Pero el ángulo de los costos importa si estás viendo cómo aumentan las facturas de computación de IA y los proveedores siguen diciéndote que la respuesta es más GPU. Esta es una razón más para rechazar eso", dijo Marlor. "Si las arquitecturas híbridas se prueban de manera más amplia, se verá en el futuro como una inferencia más barata y menores facturas de nube. Pero eso está en la plataforma y en los hiperescaladores para descubrirlo y no en los equipos de TI empresariales". Otro consultor, Brian Levine, director ejecutivo de FormerGov, está de acuerdo en que el informe de Tufts podría influir en la forma en que TI ve los precios futuros de la IA. Los ejecutivos de TI empresariales "deberían absolutamente seguir este espacio, no porque implementarán estos modelos el próximo trimestre, sino porque la economía de la IA se está volviendo aún más volátil. Las empresas deben mantenerse flexibles con sus proveedores de IA", dijo Levine. "Este mercado puede girar en un abrir y cerrar de ojos. Encerrarse en una sola pila de hiperescalador o en una única arquitectura de modelo es una receta para arrepentirse cuando avances como este comienzan a comercializarse". Levine abogó por mantenerse flexible y evitar obligaciones a largo plazo. "Esta es una razón para evitar comprometerse demasiado con la hoja de ruta de cualquier proveedor. El terreno de la IA está cambiando más rápido que la mayoría de los ciclos de adquisiciones. Los ganadores serán los CIO y las organizaciones que construyan para la portabilidad, negocien la flexibilidad y asuman que el estado del arte actual puede parecer obsoleto antes de lo que nadie espera".