Installazione di DeepSeek in locale con Ollama LLM su Ubuntu Server 24.04

da | Apr 28, 2025

 

Se stai cercando un modo per sfruttare la potenza dell’intelligenza artificiale direttamente sul tuo server, senza dipendere da servizi cloud esterni, sei nel posto giusto.

In questo articolo ti guiderò passo dopo passo nell’installazione di DeepSeek in locale utilizzando Ollama, un moderno gestore di modelli LLM, su Ubuntu Server 24.04.

Grazie a questa configurazione potrai eseguire un Large Language Model (LLM) direttamente sulla tua macchina, in totale autonomia, garantendo massima privacy e controllo sui dati.

Preparati a scoprire quanto sia semplice portare l’AI direttamente sul tuo server!

PREREQUISITI

Prima di iniziare assicurarsi di avere quanto segue:

Ubuntu 24.04 installato sul tuo computer.
Una connessione Internet stabile.
Almeno 8 GB di RAM (si consigliano almeno 16 GB per prestazioni più fluide).
Credenziali con diritti di sudo

AGGIORNAMENTO OS

Prima di procedere con l’installazione è coinsigliato aggiornare il sistema per assicurarsi che tutti i pacchetti esistenti siano aggiornati con il comando:

 

INSTALLAZIONE DI PYTHON E GIT

Procedere con l’installazione di Pythoin con il comando:

NOTA BENE: Ubuntu dovrebbe avere a bordo già l’ultima versione di Python

Verificare la versione di Python con il comando:

Dovremmo visualizzare il seguente output:

Procedere con l’installazione di PIP che è il gestore di pacchetti per Python ed è necessario per installare le dipendenze per DeepSeek e Ollama.

Eseguire il comando:

Verificare la versione di PIP installata con il comando:

Dovremmo visualizzare il seguente output:

Procedere con l’installazione di Git che è essenziale per la clonazione di repository da GitHub.

Eseguire il comando:

Verificare la versione di GIT installata con il comando:

Dovremmo visualizzare il seguente output:

 

INSTALLAZIONE DI OLLAMA PER DEEPSEEK

Ora che Python e Git sono installati possiamo procedere con l’installazione di Ollama per gestire DeepSeek.

Eseguire il comando:

ATTENZIONE: al termine dell’installazione potremmo visualizzare il Warning seguente se sul server non è presente una Scheda Video con GPU utilizzabili.

WARNING: No NVIDIA/AMD GPU detected. Ollama will run in CPU-only mode.

Verificare la versione di Ollama installata con il comando:

Dovremmo visualizzare il seguente output:

Avviare e abilitare Ollama per l’avvio automatico all’avvio del sistema con i seguenti comandi:

 

SCARICARE ED ESEGUIRE IL MODELLO DEEPSEEK

Ora che Ollama è installato, è possibile scaricare il modello DeepSeek con il comando:

L’operazione potrebbe richiedere alcuni minuti a seconda della velocità di Internet, poiché il modello ha una dimensione di diversi gigabyte.

Al termine dovremmo visualizzare il seguente output:

Una volta completato il download, è possibile verificare che il modello sia disponibile eseguendo il coamndo:

Dovremmo visualizzare il seguente output:

 

CONFIGURAZIONE DELL’INTERFACCIA OPEN-WEBUI PER DEEPSEEK

Sebbene Ollama ti consente di interagire con DeepSeek tramite la riga di comando, potresti preferire un’interfaccia web più intuitiva.

Per questo, utilizzeremo Ollama Web UI, una semplice interfaccia basata sul web per interagire con i modelli Ollama.

Innanzitutto, creare un ambiente virtuale che isoli le dipendenze Python dall’installazione di Python a livello di sistema.

Eseguire i comandi:

Ora che l’ambiente virtuale è attivo, è possibile installare Open WebUI utilizzando .pip con il comando:

ATTENZIONE: questa fase può durare diversi minuti

Una volta installato, avviare il server utilizzando il comando:

Se è andato tutto a buon fine dovremmo visualizzare una schermata come quella sovrastante

Aprire il browser web e richiamare il seguente link

http://IP-SERVER-O-FQDN:8080

Cliccare su Get Started

Inserire nome, mail e password quindi cliccare Create Admin Account

Cliccare Okay, Let’s Go!

Selezionare il modello deepseek dal menu a discesa e iniziare a interagire con esso.

A questo punto è possibile porre domande, generare testo o eseguire altre attività supportate da DeepSeek.

ABILITARE OPEN-WEBUI ALL’AVVIO DEL SISTEMA

Per fare in modo che Open-WebUI si avvii all’avvio, è possibile creare un servizio systemd che avvii automaticamente il server Open-WebUI all’avvio del sistema.

Prima di tutto verificare l’utente connesso con il comando:

Nel mio caso è root

Quindi verificare quale comando viene eseguito per l’avvio di open-webui.

Attivare l’ambiente virtuale utilizzando il comando:

Quindi eseguire il comando:

Dovremmo visualizzare un output simile al seguente:

Dopo aver reperito le due informazioni creare il file di configurazione open-webui.service con il comando:

Quindi aggiungere all’interno del file il seguente contenuto:

Salvare e chiudere il file di configurazione

NOTA BENE: inserire al posto di USER il proprio utente di servizio

Nel mio caso avendo utilizzato l’utente root come utente con cui far girare open-webui il listato da copiare nel file è il seguente:

Salvare e chiudere il file di configurazione

Ora ricaricare il demone systemd per riconoscere il nuovo servizio con i seguenti comandi:

Infine abilitare e avviare il servizio in modo che si avvii all’avvio con i seguenti comandi:

E’ possibile controllare lo stato del servizio per assicurarsi che funzioni correttamente con il comando:

Dovremmo visualizzare il seguente output:

Riavviare il server per verificare che il servizio parta in automatico e che quindi l’interfaccia web della nostra AI sia raggiunigibile.

COMANDI UTILI

Per verificare lo stato di Ollama eseguire il comando:

Per verificare che DeepSeek sia installato correttamente eseguire il comando:

Dovremmo visualizzare un output simile al seguente:

Per aggiornare Open WebUI all’interno dell’ambiente virtuale eseguire il comando:

Prima di ogni aggiornamento, è necessario attivare l’ambiente virtuale utilizzando il comando:

Per verificare se DeepSeek è in esecuzione su un IP e una porta specifici eseguire il comando:

Dovremmo visualizzare un output simile al seguente:

È possibile passare ai modelli DeepSeek più grandi utilizzando i seguenti comandi:

Per DeepSeek-R1-Distill-Qwen-32B eseguire il comando:

Per DeepSeek-R1-Distill-Llama-70B eseguire il comando:

Articoli Recenti

Veeam Backup

Monitoring

Friends

  • My English Lab  English School
  • ChrSystem   Servizi ICT
  • Since 01  Kreative Graphics

Database

Networking

Autori

  • Raffaele Chiatto  Amministratore
  • Marco Valle  Autore
  • Angelo Lauria  Autore
  • Edoardo Prot  Autore
  • Davide D’Urso  Autore
Raffaele Chiatto

Raffaele Chiatto

Sono Raffaele Chiatto, un appassionato di informatica a 360 gradi. Tutto è iniziato nel 1996, quando ho scoperto il mondo dell'informatica grazie a Windows 95, e da quel momento non ho più smesso di esplorare e imparare. Ogni giorno mi dedico con curiosità e passione a scoprire le nuove frontiere di questo settore in continua evoluzione.

Related Post

0 commenti

Invia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Virtualizzazione

Linux

Microsoft

Apple

Backup

Database

Security

Automazione