¿Cómo se sube Deepseek R1 a PC o Mac y se ejecuta localmente?

Si Deepseek r1Si desea instalarlo en su computadora y ejecutar localmente, está en el lugar correcto. 🚀

En esta guía Windows (PC) así como Fósforo Te digo cómo configurar paso a paso. No tengas miedo de los términos técnicos, explico todo lo más simple y comprensible posible. ¡Comencemos! 😎


¿Qué es Deepseek R1? 🤔

Brevemente, Deepseek r1Un modelo lingüístico con inteligencia artificial. Tiene una estructura como un chatgptPero se puede operar localmente. Bien Sin conexión a Internetpuedes ejecutarlo completamente en tu computadora. ¡Una gran alternativa, especialmente si eres sensible sobre la privacidad!

Bueno, eso ¿Cómo lo instalamos y lo ejecutamos en nuestra propia computadora? Aquí están los pasos:


1. ¿Es su computadora adecuada para Deepseek R1? 💻

Para ejecutar Deepseek R1, su computadora necesita cumplir con algunos requisitos básicos:

Windows 10/11 o macOS 12+
8 GB RAM (preferiblemente 16 GB o más)
Al menos 10 GB de espacio en disco vacío
Si usa una tarjeta de video (GPU) nvidia (con soporte CUDA)

Si estos están bien, ¡pasemos al siguiente paso! 🚀


2. Descargue Deepseek R1 a PC (Windows)

Para Windows El método de instalación más fácil, Existencia Usando la herramienta nombrada.

Paso 1: Descargar Ollama y Kurum

  1. Vaya al sitio web oficial de Ollama.
  2. Descargue e instale la versión de Windows.
  3. Después de completar la instalación Abra el cliente de comando (CMD) o PowerShell.

Paso 2: Descargar Deepseek R1

Ahora ingrese el siguiente comando para instalar el modelo Deepseek R1:

Esto descargará archivos de modelo a su computadora. Puede tomar unos minutos dependiendo de la velocidad de Internet.

Paso 3: Ejecute el Deepseek R1

Después de instalar el modelo, puede ejecutarlo con el siguiente comando:

¡Y eso es todo! 🎉 Ahora puedes correr Deepseek R1 a través de la terminal.

Si quieres una interfaz más fácil, LM Studio Puede usar tales aplicaciones.


3.

El método más fácil en Mac Existencia para usar. ¡Veamos los pasos ahora!

Paso 1: Descargar Ollama y Kurum

  1. Vaya al sitio web oficial de Ollama.
  2. Descargue e instale la versión Mac (¡Presta atención a Apple Silicon o la versión Intel!).
  3. Abra el terminal y confirme que la instalación se completa ingresando este comando:

Paso 2: Descargar el modelo Deepseek R1

Ejecute el comando en el terminal para instalar el modelo:

¡El modelo estará listo para usar cuando se complete la descarga!

Paso 3: Ejecute el Deepseek R1

Para correr:

Y voilà! 🎉 Deepseek R1 ahora funciona en MacOS.


4. LM Studio (Mac & PC) para su uso más fácil

Si Si no desea lidiar con los comandos de terminal, LM Studio Puede usar la aplicación.

  • Descargue LM Studio desde aquí.
  • Abra la aplicación, Descargar el modelo Deepseek R1 y comenzar.
  • Con una interfaz amigable para el usuario ¡Administre su inteligencia artificial local!

¿Cuál es el método más fácil?

  • Si desea la instalación en una línea: Existencia ¡Úselo!
  • Si quieres una interfaz visual: LM Studio ¡Úselo!
  • Si desea configuraciones más avanzadas y soporte de GPU: Puede instalar marcos CUDA y IA privados.

Ahora Puede ejecutar Deepseek R1 en su propia computadora Y puede experimentar una experiencia de inteligencia artificial completamente local. Si hay un lugar donde pasas el rato, ¡no dudes en preguntar en los comentarios! 🚀💡

We use cookies in order to give you the best possible experience on our website. By continuing to use this site, you agree to our use of cookies.
Accept