Proudly debugging the system since 1981

Autore: bosh (Pagina 1 di 50)

LLaMA Factory: La Soluzione Unificata per l’Ottimizzazione di Modelli LLM

Nel mondo dell’intelligenza artificiale, i grandi modelli linguistici (LLM) hanno rivoluzionato il modo in cui interagiamo con la tecnologia. Tuttavia, il loro potenziale si svela solo quando vengono addestrati in modo mirato a specifiche applicazioni. Ecco che entra in gioco LLaMA Factory, un progetto open source che semplifica e ottimizza il processo di fine-tuning di oltre 100 modelli LLM e VLM (Vision-Language Models). Con il suo approccio unificato, LLaMA Factory si presenta come una soluzione versatile per sviluppatori, ricercatori e aziende che desiderano sfruttare al massimo le capacità dei modelli linguistici.


Cos’è LLaMA Factory?

LLaMA Factory è un framework open source progettato per semplificare e accelerare il processo di fine-tuning di modelli linguistici di grandi dimensioni. Sviluppato da un team di esperti, il progetto è stato presentato al ACL 2024 e si distingue per la sua capacità di supportare una vasta gamma di modelli, da LLaMA a Qwen, da Mistral a DeepSeek, e non solo. LLaMA Factory unifica diverse metodologie di addestramento, come il fine-tuning supervisionato, la modellazione delle ricompense e le tecniche di ottimizzazione avanzate, rendendo il processo di personalizzazione dei modelli più accessibile e efficiente.

Il framework è progettato per adattarsi a diverse esigenze: che si tratti di un’azienda che desidera creare un modello specializzato per il supporto clienti o di un ricercatore che vuole esplorare nuove tecnologie, LLaMA Factory offre strumenti flessibili e potenti.


Le Caratteristiche Chiave di LLaMA Factory

LLaMA Factory si distingue per una serie di funzionalità che lo rendono unico nel panorama degli strumenti per il fine-tuning dei modelli LLM. Ecco le sue principali caratteristiche:

  1. Supporto per 100+ Modelli LLM e VLM
    LLaMA Factory supporta una vasta gamma di modelli, tra cui LLaMA, LLaVA, Mistral, Qwen, DeepSeek, Phi, GLM, e molti altri. Questo rende il framework adatto a diverse applicazioni, da compiti di comprensione del linguaggio a compiti multimediali come l’analisi di immagini o video.
  2. Metodi di Addestramento Integrati
    Il framework include diverse tecniche di fine-tuning, tra cui:

    • Fine-tuning supervisionato
    • Modellazione delle ricompense (Reward Modeling)
    • PPO (Proximal Policy Optimization)
    • DPO (Direct Preference Optimization)
    • KTO (Knowledge Transfer Optimization)
    • ORPO (Optimizing Reward with Preference Optimization)
      Questi metodi permettono di adattare i modelli a specifiche esigenze, come la generazione di testi, il ragionamento logico o l’interazione con utenti.
  3. Ottimizzazione delle Risorse
    LLaMA Factory supporta diverse strategie per ridurre il carico computazionale, come:

    • LoRA (Low-Rank Adaptation)
    • QLoRA (Quantized LORA)
    • GaLore, BAdam, APOLLO, DoRA
      Queste tecniche permettono di addestrare modelli su hardware meno potente, riducendo i costi e il tempo di elaborazione.
  4. Strumenti per la Gestione degli Esperimenti
    Il framework integra strumenti per il monitoraggio e la gestione degli esperimenti, come:

    • LlamaBoard
    • TensorBoard
    • WandB (Weights & Biases)
    • MLflow
      Questi strumenti aiutano a tracciare i progressi, confrontare i risultati e migliorare la produttività del processo di addestramento.
  5. Interfaccia Utente e CLI Zero-Code
    LLaMA Factory offre un’interfaccia web (LlamaBoard) e un CLI (Command Line Interface) che permettono di eseguire il fine-tuning senza codice, rendendo il processo accessibile anche a chi non ha esperienza avanzata in programmazione.
  6. Supporto per Inference Rapida
    Il framework include strumenti per l’inference veloce, come l’API OpenAI-style e il supporto per vLLM, che permettono di deployare i modelli in modo efficiente.

Perché Scegliere LLaMA Factory?

LLaMA Factory si distingue per la sua flessibilità, potenza e facilità d’uso. Ecco i vantaggi principali:

  • Unificazione di Metodi e Modelli: Riduce la complessità di gestire diversi framework e modelli, concentrando l’attenzione sulle esigenze specifiche del progetto.
  • Ottimizzazione delle Risorse: Grazie alle tecniche di quantizzazione e adattamento a basso rango, permette di addestrare modelli su hardware limitato.
  • Supporto per Task Complessi: Dalla comprensione del linguaggio ai compiti multimediali, LLaMA Factory è adatto a qualsiasi applicazione.
  • Community e Documentazione: Il progetto ha una documentazione completa e una comunità attiva, con blog, tutorial e esempi pronti all’uso.

Come Iniziare con LLaMA Factory

LLaMA Factory è facile da installare e usare, grazie alla sua struttura modulare e alla documentazione dettagliata. Ecco i passaggi principali per iniziare:

  1. Installazione
    Il framework può essere installato tramite pip o Docker. Per l’installazione tramite pip:

    git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git  
    cd LLaMA-Factory  
    pip install -e ".[torch,metrics]" --no-build-isolation

    Per l’installazione Docker, si possono utilizzare le immagini preconstruite su Docker Hub.

  2. Preparazione dei Dati
    LLaMA Factory supporta diversi formati di dati, tra cui dataset su Hugging Face, ModelScope o cloud storage. È possibile specificare il percorso dei dati direttamente nel codice.
  3. Fine-Tuning
    Il framework permette di eseguire il fine-tuning tramite CLI o interfaccia web. Ad esempio, per eseguire un fine-tuning con LoRA:

    llamafactory-cli train examples/train_lora/llama3_lora_sft.yaml

    L’interfaccia web (LlamaBoard) permette di monitorare in tempo reale l’addestramento e di visualizzare i risultati.

  4. Deploy e Inference
    Dopo il fine-tuning, i modelli possono essere deployati tramite API OpenAI-style o vLLM per l’inference veloce.

Supporto per Modelli e Dataset

LLaMA Factory supporta una vasta gamma di modelli, tra cui:

  • LLaMA, LLaVA, Mistral, Mixtral-MoE, Qwen, DeepSeek, Phi, GLM, Gemma, ChatGLM
  • Modelli Vision-LLM: LLaVA-1.5, LLaVA-NeXT, LLaVA-NeXT-Video, InternVL, etc.

I dataset supportati includono:

  • Dataset per fine-tuning supervisionato: Alpaca, ShareGPT, etc.
  • Dataset per modellazione delle ricompense: Human Feedback, etc.
  • Dataset per compiti multimediali: ImageNet, COCO, etc.

Conclusione

LLaMA Factory rappresenta un passo avanti nella personalizzazione e ottimizzazione dei modelli linguistici. Con la sua capacità di unificare metodi, modelli e risorse, il framework si distingue come una soluzione versatile per sviluppatori, ricercatori e aziende. Che si tratti di addestrare un modello per un’applicazione specifica o di esplorare nuove tecnologie, LLaMA Factory offre strumenti potenti e accessibili.

Se sei interessato a esplorare le potenzialità di LLaMA Factory, visita il sito ufficiale o segui il blog per rimanere aggiornato sulle ultime novità e tutorial.

LLaMA Factory: perché il fine-tuning non deve mai essere complicato.

Scrivere per l’AI: L’evoluzione della comunicazione nel mondo digitale


Nel mondo accelerato del web, dove la tecnologia cambia ogni giorno il modo in cui interagiamo con l’informazione, un tema sempre più rilevante è l’idea di “scrivere per l’AI”. Questo concetto, una volta considerato un’ipotesi futuristica, sta diventando una realtà concreta, trasformando radicalmente la scrittura umana e il suo scopo. Da un lato, l’Intelligenza Artificiale (AI) ha reso più accessibili e immediati i dati, permettendo a chiunque di ottenere informazioni in pochi secondi. Dall’altro, però, questa evoluzione ha portato a una profonda riflessione su come gli umani stanno adattando il loro lavoro, non più per gli esseri umani, ma per gli algoritmi che dominano il web. 

La scrittura, una delle forme più antiche di comunicazione, sta subendo una metamorfosi. Non si tratta più solo di condividere idee o informazioni, ma di creare contenuti che siano “leggibili” e “comprensibili” per le macchine. Questo cambiamento non è solo tecnologico, ma anche culturale e sociale. Gli scrittori, i giornalisti, i creatori di contenuti e perfino i professionisti come i PR stanno riconoscendo che il loro lavoro deve adattarsi a nuove regole: quelle dell’AI. 

L’evoluzione del web e il ruolo dell’AI
Negli ultimi anni, il web è diventato un luogo dove l’informazione è accessibile a tutti, ma anche un ambiente in cui la competizione per l’attenzione è spietata. La nascita dei motori di ricerca come Google ha reso possibile trovare informazioni in pochi secondi, ma ha anche creato un sistema in cui i contenuti devono essere ottimizzati per essere visibili. Con l’avvento degli strumenti di intelligenza artificiale, come ChatGPT e Claude, questa dinamica sta cambiando. Gli algoritmi non solo “leggono” il web, ma lo “assimilano”, analizzando dati, creando risposte e persino influenzando il modo in cui le informazioni vengono condivise. 

Questo ha portato a una nuova forma di scrittura: non più rivolta a un pubblico umano, ma a un sistema di intelligenza artificiale che, grazie al suo addestramento su milioni di testi, ha acquisito una capacità di comprensione e di generazione di contenuti. Perché, come sottolinea il magazine della Phi Beta Kappa, “l’idea di un mondo in cui gli umani scrivono, ma lo fanno principalmente per l’AI, è diventata una possibilità reale”. 

Scrivere per l’AI: una strategia necessaria?
Il fenomeno è stato ampiamente discusso da figure come Tyler Cowen, economista e influencer, che ha sottolineato come la scrittura per l’AI sia diventata una forma di “influenza” su un pubblico non umano. “Scrivere per l’AI non è solo una strategia per ottenere visibilità, ma un modo per influenzare il futuro”, ha dichiarato Cowen. La sua motivazione? Non solo aumentare il proprio impatto, ma anche “insegnare” agli algoritmi ciò che si ritiene importante. 

Ma come si fa a scrivere per l’AI? La risposta è semplice: adattare il contenuto a come gli algoritmi “leggono” e “processano” l’informazione. Gli strumenti di intelligenza artificiale non solo analizzano testi, ma li “strutturano”, cercando informazioni chiare, dati organizzati e contenuti formattati. Per questo, la scrittura ottimizzata per l’AI richiede una struttura chiara, sezioni ben definite e una chiara espressione degli intenti. 

Questo ha portato a una nuova forma di marketing e comunicazione: il “chatbot optimization” (CO). I professionisti del PR, sempre alla ricerca di influenze, stanno sviluppando strategie che non solo mirano a Google, ma a algoritmi come ChatGPT. La chiave per ottenere attenzione da parte dell’AI è scrivere in modo che sia “leggibile” per loro, con un linguaggio semplice, dati ben organizzati e un’organizzazione logica. 

Tra opportunità e preoccupazioni
Se da un lato l’AI offre nuove opportunità per la comunicazione e la diffusione delle idee, dall’altro solleva interrogativi su cosa possa significare per la creatività umana. Alcuni sottolineano che la scrittura per l’AI potrebbe portare a una perdita di valore umano, riducendo la scrittura a una mera forma di ottimizzazione per algoritmi. “L’AI legge tutto, mentre gli umani non leggono quasi nulla”, ha commentato un utente, riferendosi al fatto che l’AI è in grado di analizzare ogni tipo di contenuto, mentre la maggior parte delle persone si limita a leggere solo ciò che è necessario. 

Altri, invece, vedono in questo cambiamento un modo per immortaliare la propria voce. “Scrivere per l’AI potrebbe essere la chiave per un’immortalità intellettuale”, ha affermato un commentatore, sottolineando che gli algoritmi potrebbero “riconoscere” e “valorizzare” i contenuti che rientrano nei loro parametri di qualità. Tuttavia, molti sottolineano che l’AI non è in grado di comprendere le emozioni, le esperienze umane o il contesto culturale, rendendo la scrittura per l’AI un’attività limitata. 

Le critiche e le sfide
Nonostante i pro e i contro, il dibattito intorno alla scrittura per l’AI è stato accompagnato da critiche e preoccupazioni. Alcuni sottolineano i limiti tecnologici degli algoritmi, che non sono in grado di comprendere il significato profondo di un testo, ma solo di generare risposte basate su dati. “L’AI non è in grado di distinguere tra informazioni utili e inutili, né di valutare il valore di un contenuto”, ha scritto un commentatore, sottolineando il rischio di “informazione di scarsa qualità” che potrebbe proliferare. 

Altri, invece, si concentrano sulle implicazioni etiche e sociali. “Scrivere per l’AI potrebbe portare a una dipendenza tecnologica, riducendo la capacità degli umani di pensare criticamente”, ha affermato un utente, preoccupato che l’uso crescente di algoritmi possa influenzare la capacità di valutare fonti e verificare fatti. Questo tema è particolarmente rilevante in un’epoca in cui il web è pieno di informazioni spesso inaffidabili, e l’AI potrebbe amplificare questa problematica. 

Un futuro in bilico tra innovazione e conservazione
L’evoluzione della scrittura per l’AI rappresenta un punto di svolta nella comunicazione digitale. Da un lato, offre nuove opportunità per diffondere idee e informazioni in modo più efficiente. Dall’altro, solleva domande fondamentali su cosa significhi essere umani in un mondo dominato da algoritmi. 

Sebbene alcuni vedano in questo cambiamento un’opportunità per l’immortalità intellettuale, altri temono la perdita di valore umano e la riduzione della scrittura a una mera forma di ottimizzazione. La sfida, quindi, è trovare un equilibrio tra innovazione e conservazione, tra l’uso delle tecnologie e la protezione della creatività umana. 

Conclusione
La scrittura per l’AI è un fenomeno che sta trasformando il modo in cui gli umani comunicano e condividono informazioni. Sebbene il tema sia ancora in fase di evoluzione, è chiaro che il ruolo degli algoritmi nel web non è più un’ipotesi futuristica, ma una realtà che richiede adattamento e riflessione. Per chiunque si trovi a scrivere oggi, la domanda rimane: come si può preparare il proprio lavoro per un pubblico che non è più umano? 

Per ulteriori informazioni su questo argomento, puoi leggere l’articolo originale: https://m.slashdot.org/story/448890

Bot Voice To Text

Nella sua semplicità è il bot (gestito da un workflow N8N) che uso più spesso. I messaggi vocali sono lenti e inefficienti, l’accelerazione 1.5x o 2x risolve solo in parte il problema. Poter leggere velocemente, o scansionare, il contenuto di un vocale senza dover essere bloccato due minuti per ascoltarlo tutto è una fantastica comodità.

Ho migliorare un pochettino il workflow per gestire correttamente anche l’inoltro, sempre tramite telegram, di una MP3. Il motivo scatenante è stato che non volevo ascoltare un podcast di un ora per una piccola frazione di informazione, durata 5 minuti, annegata chissà dove.

Ho per cui modificato la gestione dell’input, cambiato i timeout di risposta, e gestito l’output di più di 2000 caratteri con lo stesso sistema del bot assistente personale.

Per trascrivere un ora di podcast l’hardware a mia disposizione ha impiegato 22 minuti, ma va bene. Non avevo fretta. E’ comunque una velocità superiore al doppio e mentre il silicio lavorava io potevo fare altro.

Il punto di partenza è stato quanto descritto in questo articolo. Il bot è sempre disponibile pubblicamente su http://t.me/b0sh8_bot anche se non tutti i giorni e non H24.

Di seguito il workflow aggiornato.

AI Workflow 2.5

Modifiche:

  • Correzioni di bug vari
  • Gestito l’invio di messaggi multipli di telegram invece che fare un riassunto nel caso si eccedessero i 2000chr come nelle versioni precedenti, cosa che ha necessitato un po di programmazione
  • Aggiunto un riassunto delle informazioni dedotte della conversazioni su un documento su google drive
  • Corretto un bug che impediva al RAG di funzionare correttamente: lo step e’ stato diviso, prima con il reperimento delle informazioni, e poi con la generazione delle risposta
  • Integrato l’utilizzo delle API di Groq per una migliore velocità di esecuzione. Al momento non esegue tutto in locale, ma alcune task sono effettuate remotamente da Groq. L’utilizzo rientra ampiamente nel piano free, quindi senza costi. E’ comunque facilmente modificabile … sia per usare Groq per tutto (ma consiglio un piano developer per via dei limiti della dimensione del contesto del piano free) sia per usare solo un llm offerto localmente da Ollama

AI Workflow 2.0

Ho rimesso mano al workflow del post di luglio rivendendo un po il sistema di memoria, che ora registra sia la richiesta che la risposta e utilizzano un solo modello LLM per tutte le operazioni, evitando quindi di caricare scaricare la VRAM più volte per dare seguito ad una sola risposta. La scelta in questo caso è ricaduta su Qwen3 8B, che a volte viene eseguito senza ragionamento ( /no_think ) per i compiti più facili.

E’ stata inoltre introdotta l’integrazione con GMail per accedere alle mail delle ultime 24 ore e rispondere a domande ad essere inerenti. Il workflow non effettua una vera e propria ricerca, ma le scarica tutte, scarta quelle di spam o comunque non utili, sintetizza quelle poco importanti e mantiene inalterate quelle importanti. Il risultato viene aggiunto al prompt dell’utente.

L’integrazione con GMail si attiva solo se la valutazione del prompt dato fà pensare che possa servire accedere alle email recenti.

Vista l’integrazione con GMail il workflow si interrompe immediatamente se il tigger iniziale non viene da me.

Il workflow è scaricabile qua sotto:

Coding agent con Ollama + Qwen3 + Continue – Parte 2

Alla fine l’ho provato, ottenendo sicuramente risultati migliori che i semplici completamenti di testo offerti da altri plugin.

Rispetto alla configurazione proposta ho utilizzato Qwen3:14b invece del MOE, anche per limiti di memoria a disposizione. Inoltre ho utilizzato Intellij IDEA in una macchina diversa da quella su cui risiede ollama. Cioè in realtà fisicamente sono la stessa ma una è una VM e l’altra è il ferro vero. Per rendere tutto piu divertente ho fatto passare le richiesta dal proxy di OpenWebUI, che è esposto su rete pubblica e che quindi richiede un token di autenticazione.

Rimaneggiata un po la configurazione:

Chiedo all’agente di generarmi una nuova semplice applicazione Spring Boot.

E lui parte a generarmi tutto perfettamente integrato con la IDE e scrivendo direttamente i file.

Dopodiché chiedo di cambiare il sistema di build da Maven a Gradle e di aggiungermi Swagger.

E dopo un paio di altri prompt per sistemare le cose ecco online il backend di una applicazione avendo scritto solo prompt e accettato il risultato:

Si tratta ovviamente di una micro applicazione, senza business logic rilevante e senza, al momento una UI. Farò altre prove in contesti un po più sfidanti ma per ora sono comunque abbastanza impressionato.

Coding agent con Ollama + Qwen3 + Continue – Parte 1

Quanto segue e’ la traduzione di Build a LOCAL AI Coding Assistant: Qwen3 + Ollama + Continue.dev (Blazing Fast & Fully Private!) … non ho ancora provato il setup ma son molto curioso e lo faro’ a breve.

Volevo condividere il mio percorso nell’utilizzare diversi assistenti AI per la programmazione — da GitHub Copilot a Cursor e ora a Windsurf — e come infine ho trovato il punto ideale passando a una soluzione completamente locale, senza compromettere velocità o qualità 🔥.
Vediamo insieme come ci sono arrivato:

💡 L’evoluzione del mio stack AI per la programmazione

  1. GitHub Copilot : Buon inizio, ma contesto limitato e non molto profondo.
  2. Cursor : Un notevole balzo in termini di potenza e flessibilità, specialmente grazie a Cursor Composer.
  3. Windsurf : Wow, questa mi ha impressionato! La sua capacità di indiciare e comprendere le basi di codice è eccezionale. Non è necessario dargli a conoscere i file da analizzare — semplicemente sa . Dai un’occhiata a lukalibre.org — interamente costruito con Windsurf 🤯Ma… c’è sempre un problema.

🛑 Il problema: Costo, velocità e limiti 😤

  • Windsurf costa 20 dollari al mese — prezzo equo per ciò che offre.
  • MA… ti limita a 500 crediti al mese, e la modalità di pensiero di Claude 3.7 utilizza 1,5 volte per ogni chiamata .
  • Anche pagando, a volte è lento ⏳.
  • Stessa storia con Cursor e Copilot.
  • E non iniziamo nemmeno a parlare delle preoccupazioni per la privacy dei dati — se la tua azienda non permette strumenti esterni, sei bloccato.

🚨 L’ingresso: Ollama + Continue.dev

Avevo pensato:

“Cosa succederebbe se potessi eseguire modelli potenti in locale?”
Così ho provato:

  • Ollama : Ospita LLM in locale (idea fantastica).
  • Continue.dev : Offre un’esperienza simile a quella di Cursor/Windsurf.

MA…

  • Modelli come Llama3 o Mistral non erano proprio all’altezza.
  • Sono pesanti e lenti sui laptop 💻➡️🐢

✨ Poi arrivò Qwen3: Alert di cambiamento di gioco 🎯💥

Ecco dove le cose si fecero veramente interessanti.
Qwen3 (soprattutto la variante 30b-a3b) mi ha lasciato a bocca aperta!

  • Utilizza distillazione + Mixture-of-Experts (MoE) → inferenza estremamente veloce.
  • Nonostante sia un modello da 30B, vengono utilizzati solo 3B di parametri per ogni prompt 🚀.
  • Le prestazioni? Strabiliantemente vicine a quelle di giganti come Claude 3.7 Sonnet e GPT-4o.
  • Funziona senza problemi su un laptop decente — testato su: i7 + RTX 2070Mac M4 Max

E il meglio di tutto: Nessuna perdita di dati, nessuna chiave API, nessuna attesa.

📌 Passo passo: Come impostare Qwen3 localmente con Continue.dev (Mac & Windows) 🖥️🛠️

Facciamolo insieme:

✅ Passo 1: Installare Ollama

Mac :

brew install ollama

Windows : Scaricare da: ollama.com/download

Avviare Ollama dopo l’installazione.

✅ Passo 2: Scaricare Qwen3 e modello di embedding

Nel terminale o in PowerShell:

ollama pull qwen3:30b-a3b

ollama pull nomic-embed-text

Perché questi modelli?

  • qwen3:30b-a3b: Il cervello principale AI 🧠 (gestisce chat, completamento automatico, modifiche).
  • nomic-embed-text: Aiuta l’AI a comprendere l’intera base di codice (spiegato di seguito ⬇️).

✅ Passo 3: Installare l’estensione Continue.dev in VS Code

  1. Apri VS Code.
  2. Vai alle Estensioni (icona 🔍 nel lato sinistro).
  3. Cerca “Continue”.
  4. Clicca su Installa.

✅ Passo 4: Configurare Continue per utilizzare Qwen3

  1. In VS Code, vai alla scheda Continue (icona 🧠).
  2. Clicca sull’icona ingranaggio ⚙️ > Apri Configurazione.
  3. Sostituisci la configurazione predefinita con questa:
name: Local Assistant  
version: 1.0.0
schema: v1
models:
- name: Qwen3-30b
provider: ollama
model: qwen3:30b-a3b
roles:
- chat
- edit
- autocomplete
- apply
- summarize
- name: embeddingsProvider
provider: ollama
model: nomic-embed-text
roles:
- embed
context:
- provider: code
- provider: docs
- provider: diff
- provider: terminal
- provider: problems
- provider: folder
- provider: codebase

🔍 Cosa fa ogni parte del YAML

models:

Definisce i “cervelli” del tuo assistente.

  • Qwen3–30b
  • embeddingsProvider

context:

Dichiara a cosa può accedere l’AI quando risolve problemi:

  • codice: File corrente.
  • docs: Documentazione (come i README).
  • diff: Cambiamenti Git.
  • terminal: Output del terminale (per il debug).
  • problems: Errori del linter.
  • folder: Cartella intera del progetto.
  • codebase: Indice completo della base di codice (grazie al modello di embedding!).

Senza questo, il tuo assistente vedrebbe solo il file che stai modificando — come cercare di riparare un motore di un’auto senza vedere l’intera auto 🚗.

✅ Passo 5: Finito! 🎉

Ora hai un assistente AI per la programmazione locale che è:

  • 🔒 Privato (nessuna perdita di dati)
  • ⚡ Veloce (eseguito sul tuo computer)
  • 💪 Potente (si confronta con GPT-4o/Claude 3.7)
  • 🌐 Pronto per l’offline

📌 Pensieri finali

Se sei stanco di pagare per token limitati, risposte lente o vuoi il pieno controllo sul tuo codice e i tuoi dati, prova Qwen3 + Ollama + Continue.dev.
È stato un cambiamento di gioco per me 🧠✨, e spero che ti aiuti anche tu.

Workflow AI, un altro caso d’uso

Credo che sta cosa mi stia sfuggendo di mano. Ho messo insieme un po’ tutto. Riconoscimento vocale, chatbot potenziato con rag, embedding, sintesi della risposta e sintesi vocale in uscita.

Risultato: una assistente personale a portata di messaggistica istantanea con due tipi di memoria, una a breve termine per sostenere efficacemente una conversazione, e una a lungo termine supportata dal RAG. L’embedding si attiva inserendo nel messaggio di input una parola chiave. Il sistema inoltre risponde (anche) a voce se l’interazione iniziale avviene mediante voce o solo scritto se l’interazione e’ stata iniziata in forma testuale.

Lo utilzzero’ davvero? Non lo so, ma potrebbe essere che si … specie per via della memoria a lungo termine, in modo che posso di fatto prendere appunti velocemente e poi poterci accedere in modo altrettanto facile e veloce.

Intanto il trascrittore di vocali, nato per provare, l’ho usato varie volte.

Il tutto, come negli esempi precedenti, e’ selfhosted. Utilizzo:

WebSocket su proxyPass con Apache 2

Note to self: quando le richieste websocket non funzionano in una applicazione proxata con Apache 2 questa pagina può essere di aiuto : https://httpd.apache.org/docs/2.4/mod/mod_proxy_wstunnel.html

In caso in futuro non sia più disponibile la configurazione che che ho usato e’

ProxyPass / http://example.com:9080/
RewriteEngine on
RewriteCond %{HTTP:Upgrade} websocket [NC]
RewriteCond %{HTTP:Connection} upgrade [NC]
RewriteRule ^/?(.*) "ws://example.com:9080/$1" [P,L]

N8n e un caso d’uso

N8n è un bel progettino per realizzare workflow automatizzati, mettendoci dentro un po di AI.

Come da esperienze precedenti ho provato a farlo funzionare utilizzando il meno possibile servizi su cloud, più che altro per essere consapevole di come funziona ogni passaggio.

Per cui, primo passo installo N8N con una immagine che gira in locale su docker. Niente di difficile. Le istruzioni sul repository sono facili. N8N parte, richiede una mail di registrazione per sbloccare un po’ di funzionalità in modo gratuito. Va bene, anche se non ho verificato bene la differenza tra con e senza registrazione.

A questo punto mi pongo il problema di cosa fargli fare. Ce ne sarebbero mille ma di cose ma provo ad implementare una trascrizione di audio mediante telegram. L’obbiettivo è avere facilmente la trascrizione di messaggio audio provenienti da varie piattaforme di messaggistica, non necessariamente solo telegram.

Continua a leggere
« Articoli meno recenti

© 2025 b0sh.net

Tema di Anders NorenSu ↑