¿Cómo instalar LLaMA 3 en una PC con Windows 11?

Como Instalar Llama 3 En Una Pc Con Windows 11



Llama 3 es el último modelo de lenguaje grande de Meta. Puede usarlo para diversos propósitos, como resolver sus consultas, obtener ayuda con sus tareas y proyectos escolares, etc. La implementación local de Llama 3 en su máquina con Windows 11 lo ayudará a usarlo en cualquier momento, incluso sin acceso a Internet. Este artículo te muestra cómo instalar Llama 3 en una PC con Windows 11 .



  Install Llama on Windows





Cómo instalar Llama 3 en una PC con Windows 11

La instalación de Llama 3 en una PC con Windows 11 a través de Python requiere habilidades y conocimientos técnicos. Sin embargo, algunos métodos alternativos le permiten implementar Llama 3 localmente en su máquina con Windows 11. Te mostraré estos métodos.





Para instalar Llama 3 en su PC con Windows 11, debe ejecutar algunos comandos en el símbolo del sistema. Sin embargo, esto sólo le permitirá utilizar su versión de línea de comandos. Debe tomar medidas adicionales si desea utilizar su interfaz de usuario web. Te mostraré ambos métodos.



Implemente Llama 3 en una PC con Windows 11 a través de CMD

Para implementar Llama 3 en su PC con Windows 11, debe instalar Ollama en su máquina con Windows. Los pasos para el mismo son los siguientes:

  Descargar Ollama en Windows

  1. Visita Sitio web oficial de Ollama. .
  2. Haga clic en el Descargar y luego seleccione ventanas .
  3. Ahora, haga clic en el Descargar para Windows para guardar el archivo exe en su PC.
  4. Ejecute el archivo exe para instalar Ollama en su máquina.

Una vez que Ollama se instale en su dispositivo, reinicie su computadora. Debería estar ejecutándose en segundo plano. Puedes verlo en la bandeja del sistema. Ahora, haz clic en la opción Modelos en el sitio web de Ollama. Verás sus diferentes modelos.



La Llama 3.1 está disponible en los siguientes tres parámetros:

  • 8B
  • 70B
  • 405B

El último es el parámetro más grande y obviamente no se puede ejecutar en una PC de gama baja. La Llama 3.2 tiene los siguientes dos parámetros:

  • 1B
  • 3B

Haga clic en la versión de Llama que desea instalar en su PC. Por ejemplo, si desea instalar Llama 3.2, haga clic en Llama 3.2. En el menú desplegable, puede seleccionar el parámetro que desea instalar. Después de eso, copie el comando al lado y péguelo en el símbolo del sistema.

  Llama 3.2 1B model command

Para tu comodidad, he escrito ambos comandos para el modelo Llama 3.2. Para instalar el modelo Llama 3.2 3B, ejecute el siguiente comando:

ollama run llama3.2:3b

Para instalar el modelo Llama 3.2 1B, use el siguiente comando:

ollama run llama3.2:1b

  Instalación exitosa

Abra el símbolo del sistema, escriba cualquiera de los comandos mencionados anteriormente (según sus requisitos) y presione Ingresar . La descarga de los archivos necesarios llevará algún tiempo. El tiempo de descarga también dependerá de la velocidad de tu conexión a Internet. Después de completar, verá el éxito mensaje en el símbolo del sistema.

Ahora, escribe tu mensaje para usar el modelo Llama 3.2. Si desea instalar el modelo Llama 3.1, utilice los comandos disponibles en el sitio web de Ollama.

La próxima vez que inicie el símbolo del sistema, use el mismo comando para ejecutar Llama 3.1 o 3.2 en su PC.

Instalar Llama 3 a través de CMD tiene una desventaja. No guarda su historial de chat. Sin embargo, si lo implementas en el host local, tu historial de chat se guardará y obtendrás una mejor interfaz de usuario. El siguiente método muestra cómo hacerlo.

Deploy Llama 3 Web UI on Windows 11

Usar Llama 3 en un navegador web proporciona una mejor interfaz de usuario y también guarda el historial de chat en comparación con usarlo en la ventana CMD. Te mostraré cómo implementar Llama 3 en tu navegador web.

Para usar Llama 3 en su navegador web, Llama 3 a través de Ollama y Docker debe estar instalado en su sistema. Si aún no has instalado Llama 3, instálalo usando Ollama (como se explicó anteriormente). Ahora, descargue e instale Docker desde su sitio web oficial .

Después de instalar Docker, ejecútelo y regístrese para crear una cuenta. Docker no se ejecutará hasta que usted se registre. Después de registrarse, inicie sesión en su cuenta en la aplicación Docker. Minimiza Docker a la bandeja del sistema. Las aplicaciones Docker y Ollama deberían ejecutarse en segundo plano. De lo contrario, no podrá utilizar Llama 3 en su navegador web.

  Ejecute el comando Llama para Docker

Ahora, abra el símbolo del sistema, copie el siguiente comando y péguelo en el símbolo del sistema:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

  Contenedor Docker para Llama 3

El comando anterior tardará algún tiempo en descargar los recursos necesarios. Por tanto, ten un poco de paciencia. Después de completar el comando, abra Docker y seleccione el Contenedores sección del lado izquierdo. Verás que se crea un contenedor automáticamente con el puerto 3000:8080.

Haga clic en el puerto 3000:8080. Esto abrirá una nueva pestaña en su navegador web predeterminado. Ahora, regístrate e inicia sesión para usar Llama 3 en tu navegador web. Si ve la barra de direcciones, verá servidor local: 3000 allí, lo que significa que Llama 3 está alojado localmente en su computadora. Puedes usarlo sin conexión a Internet.

  Utilice Llama 3 en el navegador web

Seleccione su modelo de chat Llama en el menú desplegable. Si desea agregar más modelos de chat de Llama 3, debe instalarlo a través de Ollama usando los comandos requeridos. Después de eso, el modelo estará disponible automáticamente en su navegador web.

Todo su historial de chat se guardará y será accesible en el lado izquierdo. Cuando desee salir, cierre sesión en su navegador web. Después de eso, abra la aplicación Docker y haga clic en Detener para detener Docker. Ahora puedes cerrar Docker.

Cuando desee utilizar Llama 3 en su navegador web la próxima vez, inicie Ollama y Docker, espere unos minutos y luego haga clic en el puerto en el contenedor Docker para abrir el servidor localhost en su navegador web. Ahora, inicia sesión en tu cuenta y comienza a usar Llama 3.

Espero que esto ayude.

comandos ftp windows 7

¿Se puede ejecutar Llama 3 en Windows?

Dependiendo de la configuración del hardware de su computadora, puede ejecutar Llama 3 en su sistema. Su modelo 1B es el más ligero. Puede instalarlo y ejecutarlo en su sistema a través del símbolo del sistema.

¿Cuánta RAM necesito para Llama 3?

El modelo más ligero de Llama 3 es Llama 3.2 1B. Su sistema debe tener 16 GB de RAM para ejecutar el modelo Llama 3.2 1B. Además de esto, su sistema también debería tener una GPU de alta resistencia. Los modelos superiores de Llama 3 requieren más recursos del sistema.

Leer siguiente : Cómo utilizar la IA de Leonardo Phoenix .

Entradas Populares