En los últimos años, el avance de la inteligencia artificial (IA) ha sido vertiginoso. Sin embargo, este progreso ha venido acompañado de una creciente preocupación por el impacto medioambiental de su infraestructura tecnológica. Los grandes modelos de lenguaje, como los que impulsan plataformas como ChatGPT o Gemini, requieren enormes cantidades de energía para su entrenamiento y funcionamiento, lo que implica un uso intensivo de centros de datos de alto consumo energético. En respuesta, la comunidad científica y tecnológica ha comenzado a explorar alternativas más sostenibles, entre ellas, los modelos de IA más pequeños y eficientes.
La proliferación de estos pequeños modelos de lenguaje, conocidos como small language models (SLM), representa una evolución significativa en el panorama de la IA. A diferencia de los modelos masivos, los SLM pueden ejecutarse de forma local en dispositivos personales como ordenadores o incluso teléfonos móviles, sin necesidad de acceder constantemente a la nube. Este enfoque no solo disminuye la huella energética del procesamiento, sino que también abre nuevas posibilidades para el desarrollo de soluciones descentralizadas y adaptables.
El impacto medioambiental de los grandes centros de datos es cada vez más evidente. Según estimaciones de Goldman Sachs, se espera que el consumo energético vinculado a la IA aumente un 165% de aquí a 2030. En ese mismo horizonte, la Agencia Internacional de la Energía prevé que los centros de datos lleguem a representar el 3% del consumo energético global, lo que equivaldría a más de 945 teravatios-hora anuales, una cifra superior al consumo de países como Japón. Estos datos reflejan la urgente necesidad de replantear la forma en que diseñamos y desplegamos los sistemas de inteligencia artificial.
Frente a este panorama, los pequeños modelos emergen como una respuesta técnica y ecológica. Ejemplos como Mistral Small 3.1, desarrollado por una startup francesa, demuestran que es posible ejecutar modelos de IA avanzados en dispositivos con características relativamente modestas, como un Mac con 32 GB de RAM. De forma similar, el proyecto de código abierto TinyLlama 1.1B ha sido probado incluso en smartphones, mientras que Google ha lanzado recientemente su modelo Gemma 3 1B, diseñado específicamente para su integración en aplicaciones móviles.
Verónica Bolón-Canedo, investigadora de la Universidad de A Coruña, destaca que estos modelos reducidos están optimizados para operar con un menor número de parámetros, lo que se traduce en una menor necesidad de operaciones computacionales y, por tanto, en un consumo energético más bajo. Además, el hecho de que puedan ejecutarse directamente en el dispositivo del usuario evita la necesidad de enviar datos a centros de datos remotos, lo que también reduce los costes energéticos asociados al transporte y procesamiento de la información.
A esta eficiencia energética se suma una mejora en la privacidad y en la velocidad de respuesta. Como explica Bolón-Canedo, al mantener los datos dentro del propio dispositivo, se mitigan los riesgos asociados al almacenamiento y porcesamiento en la nube. Asimismo, se reduce la latencia, ya que no es necesario esperar a que la información sea transmitida y procesada de forma remota antes de recibir una respuesta.
No obstante, esta transición hacia modelos más pequeños no está exenta de desafíos. Uno de los principales es la pérdida de precisión y capacidad en comparación con los grandes modelos. Aunque los SLM son idóneos para tareas concretas y de menor complejidad, aún no pueden igualar el rendimiento de los LLM en ámbitos como la generación de imágenes o el razonamiento complejo. Aun así, los avances son rápidos. George Tsirtsis, director de tecnología de Qualcomm en Europa, asegura que la calidad de los modelos pequeños está mejorando constantemente y que muchas empresas ya los están adaptando para aplicaciones comerciales que requieren inferencia en tiempo real.
Un ejemplo revelador es el uso del modelo Stable Diffusion en un smartphone por parte de Qualcomm, que inicialmente tardaba 15 segundos en generar una imagen. Gracias a la evolución de los procesadores específicos para IA, este tiempo se ha reducido a menos de un segundo. Este tipo de mejoras técnicas demuestran que la IA local no solo es viable, sino que puede ser altamente eficiente si se cuenta con el hardware adecuado.
De hecho, las compañías como Qualcomm están desarrollando procesadores especializados, las llamadas NPU, o unidades de procesamiento neuronal, diseñadas específicamente para ejecutar IA generativa de manera eficiente dentro de dispositivos móviles u ordenadores personales. Estos chips ya forman parte de la nueva generación de dispositivos denominados AL PCs, que integran capacidades avanzadas de procesamiento local sin comprometer la autonomía energética del equipo.
En conclusión, el desarrollo de modelos de IA más pequeños y sostenibles no solo representa una tendencia emergente, sino también una necesidad imperiosa ante el crecimiento imparable del sector. A medida que las aplicaciones de la inteligencia artificial se multiplican, garantizar su viabilidad energética será clave para un futuro tecnológico responsable. Los pequeños modelos, aunque aún en evolcuión, ofrecen una vía prometedora para alcanzar este equilibrio entre innovación y sostenibilidad.
Comentarios