Muchos de nosotros estamos habituados a relacionarnos con las diferentes herramientas de Inteligencia Artificial en la nube. Sin embargo, la realidad es que muchos modelos de lenguaje también nos permiten ejecutar sus herramientas directamente en nuestro ordenador en local. Pero, ¿cómo podemos conocer cuáles son compatibles?
Las herramientas de Inteligencia Artificial son cada vez más populares y actualmente tenemos una gran cantidad de posibilidades a nuestra disposición. En función de la actividad que queramos realizar, tenemos distintas opciones que pueden ayudarnos a ser más eficientes. Pese a que en un primer momento muchos de nosotros usábamos estas herramientas en la nubela realidad es que muchos modelos de lenguaje también se pueden ejecutar en local en nuestro ordenador, con independencia de que usemos Windows, macOS o Linux.
Pero ¿cuáles son los modelos que estan disponibles teniendo en cuenta las características de nuestro equipo? Esta es una de las dudas más habituales que pueden surgir, especialmente si todavía no estamos muy familiarizados con estos modelos. Ahora, descubrelo es tan sencillo como introducir un solo comando en la máquina de tu ordenador.
Así funciona llmfit
llmfit es el nombre del proyecto que nos permite acceder a esta información. Se trata de una herramienta de codigo abierto que ha sido publicado recientemente en GitHub y que, cuando la ejecutamos, analiza los recursos con los que nuestra cuenta ordenador y ofrece una selección de todos los modelos de IA que se pueden utilizar en local.
Para ello, tiene en cuenta la CPU, RAM y GPU y los cruza con los requisitos mínimos que necesita cada herramienta de IA. Sin embargo, sus beneficios no terminan ahí. Y es que muestra un listado de recomendaciones clasificadas por rendimiento y por calidad. Además, para acceder a toda esta información lo único que necesitamos es acceder a la consola de nuestro equipo e introducir un código, como te vamos a detallar a continuación.
Cómo puedes acceder a esta información
Lo primero que tienes que hacer es instalar llmfit, cuyo proceso depende del sistema operativo que estemos utilizando. A continuación te vamos a explicar cómo puedes realizar la instalación en función del sistema operativo que estés utilizando, puesto que varía mínimamente entre ellos.
En el caso de que usa Windows, debes hacer lo siguiente:
- Lo primero es descargar Rust desde la página oficial.
- Acto seguido, abre PowerShell.
- Ejecuta el siguiente comando: “cargo install llmfit”
es Mac OS, El proceso es todavía más sencillo:
- Si tienes Homebrew, ejecuta: brew install llmfit.
- Si quieres usar Rust, debes seguir el mismo proceso que hemos mencionado para Windows.
es linux, para realizar la instalación tienes que utilizar lo siguiente:
curl -fsSL https://llmfit.axjns.dev/install.sh | sh
Ejecuta el comando
Una vez recorridos los pasos mencionados previamente, lo único que queda es ejecutar el comando que puede ayudarnos a acceder a la información que te hemos mencionado. Con independencia del sistema operativo que utilizas, debes abrir la consola e introducir este comando: llmfit. A partir de ahí, tienes que dejar que el comando realice todos los análisis necesarios.
Pocos segundos después, tendrás un informe completo con todos los modelos que puedes ejecutar teniendo en cuenta tu CPU, RAM y GPU. Además, también te ofrecerá información sobre la velocidad y los requisitos de memoria. De este modo, evitarás perder el tiempo descargando modelos que luego no funcionan o que tienen algún tipo de incompatibilidad porque no cumplen los requisitos mínimos.
Preguntas frecuentes sobre llmfit Es una herramienta de código abierto que analiza los componentes de tu ordenador para enseñarte cuál es la mejor aplicación de IA para tu equipo.
No, si sigues los pasos vas a comprobar que todo es muy sencillo.
Sí, es un proyecto completamente gratuito.
¿Qué es exactamente llmfit?
¿Necesito conocimientos técnicos avanzados para usarla?
¿Es llmfit una herramienta gratuita?
