opinión

La IA de enjambre: la colaboración modela el futuro de la inteligencia artificial



Dirección copiada

Jan Wildeboer, evangelista de Red Hat en EMEA, dice que el auge de modelos de IA más pequeños son una respuesta lógica a las limitaciones inherentes de la IA a gran escala

Publicado el 23 sept 2024



Jan Wildeboer, Red Hat EMEA
Jan Wildeboer, Red Hat EMEA

El entusiasmo inicial por el auge de la inteligencia artificial parece estar perdiendo fuerza, abriendo paso a un análisis con un enfoque más práctico. La integración de estas tecnologías en el mundo corporativo no está siendo sencilla, y muchas empresas están valorando cómo hacer frente a los desafíos que supone alojar, entrenar y actualizar la IA de forma autónoma. Lejos de significar el fin de la IA, esta situación podría estar marcando un punto de inflexión. El auge de los modelos más pequeños podría ser la clave para una integración más eficiente, que moldearán el futuro de la IA.

La innovación tecnológica a menudo sigue un patrón predecible: primero, los gigantes corporativos empiezan liderando el mercado. Sin embargo, esta asimetría inicial no impide que los actores más pequeños busquen nichos de oportunidad para competir. Este proceso de abajo hacia arriba finalmente conduce a un equilibrio en el mercado. Basta pensar en aplicaciones cotidianas como buscadores, chatbots o resúmenes de texto: en estos casos, los modelos más pequeños no solo son adecuados, sino también los más rentables.

El auge de modelos de IA más pequeños son una respuesta lógica a las limitaciones inherentes de la IA a gran escala. Si bien los grandes modelos lingüísticos nos sorprenden por su capacidad para tratar cualquier tema, sabemos que son incapaces de profundizar en áreas específicas. A esto se suma el problema persistente de las alucinaciones, que de momento se presentan como un problema difícil de controlar.
Frente a las limitaciones de los grandes modelos lingüísticos, surge una alternativa prometedora: “la IA de enjambre“. Este enfoque innovador apuesta por la colaboración entre múltiples modelos pequeños, cada uno especializado en una tarea específica.

Estos modelos, ya sean desarrollados por la empresa o adquiridos a terceros, se conectan a un meta-nivel que funciona como una unidad de consulta común. De esta manera, se crea una inteligencia artificial modular y versátil, capaz de abordar una gama más amplia de desafíos con mayor precisión y eficiencia. Al recibir una consulta, el meta-nivel selecciona estratégicamente qué modelo o combinación de modelos está mejor equipado para proporcionar la respuesta más precisa y relevante.

La adopción de modelos de IA más pequeños presenta una serie de ventajas frente a los LLM. Se trata de modelos que no se mantienen estáticos después de su entrenamiento inicial. Es decir que pueden aprender y actualizarse continuamente con nuevos datos sin necesidad de un reentrenamiento completo y costoso. Esta flexibilidad se traduce en tiempos de entrenamiento significativamente más rápidos. Además, los modelos pequeños suponen un ahorro de costes. A fin de cuentas, los LLM, con sus miles de millones de parámetros, exigen una inversión económica considerable.

Además, apostar por modelos más pequeños reduce la dependencia que tienen las empresas de los proveedores de LLM, cuyas soluciones actúan como cajas negras en cuanto a algoritmos, datos de entrenamiento o modelos. En cambio, los modelos pequeños promueven la transparencia, trazabilidad y confiabilidad. Europa se ha erigido como un referente en la regulación de nuevas tecnologías, estableciendo estándares que trascienden sus fronteras y son imitados a nivel global. El RGPD ya sentó un precedente en el pasado, y la ley de IA promete hacer lo propio en el futuro.

Finalmente, la simplicidad inherente a los modelos pequeños democratiza el acceso a la IA. Su facilidad de entrenamiento, optimización y despliegue permite a las empresas, incluso con recursos limitados, experimentar y desarrollar soluciones a medida, superando la barrera de la escasez de talento en IA de la industria y la complejidad asociada a los grandes modelos lingüísticos. La IA de enjambre, con su enfoque colaborativo, se posiciona como una alternativa eficiente y accesible para impulsar la innovación en diversos sectores.

El revuelo en torno a la IA generativa se está disipando y las grandes promesas están dando paso a expectativas más realistas. Sin embargo, esto no pretende ser el fin de la IA, sino más bien nos muestra la necesidad de repensarla. La IA de enjambre basada en pequeños modelos de domain-specific abrirá un nuevo capítulo de éxito en el uso de la IA. Y los proveedores europeos en particular deberían aprovechar esta tendencia como una nueva oportunidad de mercado. Al fin y al cabo, la IA es, al menos de momento, la tecnología clave por excelencia.

Artículos relacionados

Artículo 1 de 4