b0sh.net

Proudly debugging the system since 1981

Senza pioggia e fango non è Aranciolona

Solita consolidata formula della corsa non competitiva da 7, 13 e 20 km in un periodo dell’ anno in cui non c’è troppa concorrenza, ma si é anche soggetti al clima non particolarmente piacevole.

E quindi, come quasi tutti gli anni, pioggia e fango.

Organizzazione sempre ottima, strade bloccate e sorvegliate, punti di ristoro ricchi e ben piazzati e simpatici omaggi alla fine. Particolarmente apprezzata, non da me ma in generale, la pasta e fagioli.

Mi piacerebbe vedere anche una corsa nel parco dell’ Olona in tarda primavera, valorizzerebbe di più il contesto che in pieno inverno non offre il suo meglio.

Plugin gradle per la migrazione da javax a jakarta

Il plugin si trova qua : https://plugins.gradle.org/plugin/com.netflix.nebula.jakartaee-migration

La spiegazione su cosa puo fare e come si usa qua : https://github.com/nebula-plugins/gradle-jakartaee-migration-plugin

Lo scenario in cui l’ho utilizzato e’ quando si devono usare due librerie o framework, una con dipendenze “vecchie” sotto javax e una con dipendenze “nuove” sotto jakarta su un application server “nuovo”.

Il plugin aggiorna automaticamente le dipendenze vecchie, al momento della compilazione, rendendo tutto funzionante e interoperabile.

Un sentito ringraziamento a chi ha reso necessario il cambio di nome.

Blog integrato con ActivityPub

Approfondendo il tema del fediverso ho trovato un plugin di WordPress che permette di federare il proprio blog che quindi appare in tutti i server proprio come un entità federata con utenti suoi, ovvero gli autori dei post.

In questo caso ovviamente ci sono solo io.

Questo post é di fatto anche un test che dovrebbe apparire ricercando @ bosh @ www.b0sh.net .

Il www me lo sarei anche evitato ma non era possibile se non modificando la configurazione di base di WordPress.

P.S. : Direi che ha funzionato. Il post cercato e trovato su mastodon.uno:

Degooglizzazione

Essendomi recentemente iscritto a mastodon ci ho trovato un (piccolo) gruppo di persone, che vuoi perchè si ricordava com’era il web, vuoi per fastidio rispetto alle azioni di monopolizzazione della grande G ha iniziato attivamente a fare qualcosa e creare alternative. Il progetto è molto buono, spero cresca includendo anche chi non percepisce il problema cosi come lo percepisco io.

Forse la cosa più evidente è davvero mastodon, ma il fediverso non è solo Mastodon, e comunque contribuire al fediverso non basta per non essere ostaggi di Google, Apple, Facebook e MS.

Quest’ultima cosa, il non essere ostaggio, è quello che mi ha mosso maggiormente verso il crearmi alternative o piani B.

Non credo che sia sano, giusto e sicuro, che l’identità digitale e quindi primariamente email, ma anche siti web e profili social siano in mano a qualcuno che, con la scusa di offrirceli gratis, li puo di fatto spegnere quando vuole.

Qualche lettura e quale progetto che reputo interessante sull’argomento:

  • Degooglizzazione una sorta di manifesto
  • Mastodon.uno la principale istanza italiana di mastodon, su cui sono presente anche se più che altro leggo e basta
  • Bookwyrm.it un posto dove scoprire e recensire libri, sempre parte del fediverso. Non sono iscritto al momento, ma credo che lo farò a breve
  • ActivityPub il protocollo alla base del fediverso

Usare la intelligenza artificiale in locale per rinominare le foto

Questa la devo provare:

https://hackaday.com/2023/12/29/using-local-ai-on-the-command-line-to-rename-images-and-more/

UPDATE: E infatti poi l’ho provata. Ho dovuto fare un po di aggiustamenti per utilizzare il tutto con windows e ho provato a modificare i prompt in italiano.

Le modifiche si limitano ai controlli sulla presenza dei llama-file e sui prompt.

Controllo presenza file:

if ! LLAVA=$(command -v ./llava-v1.5-7b-q4.llamafile.exe); then
  printf '%s\n' "llava-v1.5-7b-q4-main.llamafile: fatal error: update this script with the path of your llava llamafile" >&2
  printf '%s\n' "please download https://huggingface.co/jartine/mistral-7b.llamafile/blob/main/mistral-7b-instruct-v0.1-Q4_K_M.llamafile, rename to llava-v1.5-7b-q4.llamafile.exe, and put it in the same directory of this script" >&2
  abort
fi

if ! MISTRAL=$(command -v ./mistral-7b-instruct-v0.2.Q3_K_L.llamafile.exe); then
  printf '%s\n' "mistral-7b-instruct-v0.1-Q4_K_M-main.llamafile: fatal error: update this script with the path of your mistral llamafile" >&2
  printf '%s\n' "please download https://huggingface.co/jartine/Mistral-7B-Instruct-v0.2-llamafile/blob/main/mistral-7b-instruct-v0.2.Q3_K_L.llamafile, rename to mistral-7b-instruct-v0.2.Q3_K_L.llamafile.exe, and put it in the same directory of this script" >&2
  abort
fi

Prompt italiani:

isgood() {
  "$MISTRAL" \
      --temp 0  \
      --grammar 'root ::= "si" | "no"' \
      -p "[INST]Questo nome file '${1##*/}' è una descrizione comprensibile e corretta in lingua italiana?[/INST]" \
      --silent-prompt 2>/dev/null
}

pickname() {
  "$LLAVA" \
      --image "$1" --temp 0.3  \
      --grammar 'root ::= [a-z]+ (" " [a-z]+)+' -n 15 \
      -p '### User: Questa immagine contiene ...
### Assistant:' \
      --silent-prompt 2>/dev/null
}

Inoltre per mistral ho dovuto scegliere una versione di dimensione non superiore ai 4giga, per limitazioni proprie di windows.

Il comportamento in inglese è buono, mentre l’output in italiano non e’ molto utile e spesso capita qualche parola di spagnolo qua e la.

llamafile v0.6

Mi segno e segnalo questa release che ho trovato impressionate : https://github.com/Mozilla-Ocho/llamafile/releases

Si tratta di un sistema per rendere facilmente accessibili modelli di linguaggio e praticamente funziona su tutti i sistemi operativi (window, linux, mac, etc) sfruttando CPU anche ARM, GPU anche multiple, anche AMD.

Si scarica il modello. Su linux gli si da il permesso di esecuzione, su windows lo si rinomina in .exe e lo si avvia.

Ho scaricato il modello llava e funziona con prestazioni accettabili anche usando solo una CPU non nuovissima (intel i7 11 generazione).

« Articoli meno recenti

© 2024 b0sh.net

Tema di Anders NorenSu ↑