this post was submitted on 19 Feb 2026
11 points (100.0% liked)

Forum Libre

1296 readers
77 users here now

Partagez et discutez de sujets positifs ou liés à votre quotidien, tels que:

Les mots d'ordre sont : respect et bienveillance, l'objectif est de proposer un environnement positif et tranquille.

Les discussions politiques ou pouvant provoquer des émotions négatives sont déconseillées, et ont davantage leur place sur

Les règles de l'instance sont bien entendu d'application.

Fils hebdomadaires"

"Demandez-moi n'importe quoi"

Communautés détendues

Communautés liées:

Loisirs:

Vie Pratique:

Communautés d'actualité

Société:

Pays:

Communauté de secours:

Communautés principales de l'instance

Nous rejoindre sur Zulip: https://jlailu.zulipchat.com/

founded 2 years ago
MODERATORS
 

Envie de poster une question technique sur du matériel ou du logiciel ?
Allez, viens !

top 14 comments
sorted by: hot top controversial new old
[–] pseudo@jlai.lu 1 points 12 hours ago

Je cherche un jeu pour apprendre à craquer des mots de passe.

Des piots ont essayé avec tellement de bonne volonté et de bonnes idées d'ouvrir mon téléphone, que je voudrais les aider à assouvir leur pulsion de pirate, et comme ils ne trouveront jamais mon mot de passe...

[–] Ziggurat@jlai.lu 3 points 1 day ago (2 children)

Pas vraiment une question, mais j'ai joué un peu avec LMstudio, qui permet de faire tourner des modèles de language en local. C'est devenu super-simple, avec un truc bien intégré/installé qui gère la balance CPU/GPU et la possibilité de récupérer directement des modèles sur HuggingFace.

Et bien, le modèle à 8B de paramètres marche bien et est très fluide sur mon PC. Reste le problème du qu'est-ce que je vais en faire ? déjà que le copilot que j'ai au bureau sert peu....

[–] Skunk@jlai.lu 2 points 1 day ago (1 children)

J’ai fait les mêmes expériences avec text-generation gui et des modèles 70 et 36B gguf. (J’ai une 4090 ou un processeur avec npu sur l’autre machine)

Mon truc c’est plutôt la littérature donc je voulais voir si j’arrivais à générer du low-effort ok-tiers pour faire de la masse (20books to 50k).

Par ok-tiers je veux dire quelque chose généré par llm avec un contexte de 8192 (assez pour un chapitre) puis retravaillé à la main car il est moralement hors de question de produire de la merde, low effort oui, 💩 non.

Bah c’est nul, obtenir un résultat utile demande un gros effort de contexte, resumé et fiches personnages ainsi qu’une attention constante pour bien diriger le bousin.

Sachant que derrière faut relire et réécrire à la main c’est plus rapide de juste écrire pour directement avoir une qualité moyenne à bonne.

TLPL: Ça sert à rien sauf prendre des gigas sur mon disque.

[–] Ziggurat@jlai.lu 2 points 1 day ago (3 children)

Sachant que derrière faut relire et réécrire à la main c’est plus rapide de juste écrire pour directement avoir une qualité moyenne à bonne.

Ça reste le gros problème, au début de chatGPT, j'avais un peu testé pour des aides de jeux de JDR et en fait, il faut repasser derrière pour éviter une info qui matche pas le scénario ou qui aurait du être "secret" le gain de temps est un peu limité.

C'est aussi le problème au travail, oui je peux rephraser un paragraphe, et avoir un truc en anglais correct, mais il faut l'écrire d'abord et le relire après. Donc le gain est limité.

Pourtant il y a des gens qui prétendent que ça change leur vie/travail

[–] Zos_Kia@jlai.lu 1 points 12 hours ago

Pourtant il y a des gens qui prétendent que ça change leur vie/travail

Ils utilisent des modèles frontière qui ont des performances bien meilleures. Par exemple pour l'écriture c'est effectivement impossible sans une fenêtre de contexte conséquente. Déjà avec 50K tu peux obtenir des trucs pas mal. C'est pas du Tolstoi mais ça se lit et surtout ça reste cohérent, ça respecte les beats narratifs que tu as définis, ça fait pas dériver les personnages vers des versions génériques d'eux mêmes, etc...

Le côté agentique est utile aussi, pas pour faire de "vrais" agents mais parceque ce sont des modèles fine-tunés à bien tolérer les inférences longues et laborieuses. Ils restent dans leur voie, font des checkpoints réguliers pour se réaligner avec le contexte original, etc... En comparaison, les modèles de la génération précédente genre Llama et compagnie sont complètement arrachés. Le modèle va totalement vriller au bout de 5000 tokens et partir à 90° de sa tâche initiale.

En local si tu peux faire passer une quant de GLM-4.5-Air par exemple, tu vas avoir des résultats bien meilleurs. Bon ça va pas être particulièrement rapide par contre...

[–] Courantdair@jlai.lu 3 points 1 day ago* (last edited 1 day ago) (1 children)

Les gens qui prétendent que ça change leur vie ne relisent pas je pense

[–] Skunk@jlai.lu 2 points 1 day ago

Je pense aussi, ils font justement parti de ces gens qui acceptent de publier/présenter/envoyer de la mauvaise qualité. C'est possiblement une stratégie et je peux le comprendre, mais je refuse de le faire.

[–] leftascenter@jlai.lu 1 points 1 day ago

J'ai un ami qui utilise et gagne du temps, mais c'est le bon cas:

  • llm local
  • entraine sur 30+ années de dossiers
  • utilisé pour dégrossir des cas en phase amont: au lieu de faire 1 pré-étude /semaine, ils génèrent 3-4 pre-pre-etudes, et affinent celle qui semble la mieux.

Ça leur permet de faire moins d'itérations / converger plus vite sur les cas complexes.

[–] leftascenter@jlai.lu 1 points 1 day ago

Idem j'ai joué en local sur téléphone avec pocketpal et des SLM.

Ça tourne bien (llama 3.2 1b dans mes souvenirs) c'est fun, mais je n'en ai pas l'utilité.

A la base je cherchait un équivalent a Google now, pour contrôler simplement mon téléphone avec la voix.

[–] Professeur_Falken@jlai.lu 2 points 1 day ago (2 children)

Salut les 933ks / N3rds !
Vous savez si ça existe une Devuan avec un VRAI OpenRC dedans ? La dernière fois que j'avais testé (et ça remonte ! Je crois que les dinosaures mettaient encore des chaussettes à cette époque), y avait un support rachitique.
Là, je commence à me lasser de Artix (plus précisément, du fait que localhost:631/admin ne marche plus et que me recherches ne donnent rien) et je me tâte sur autre chose. Pas forcément une Debian, mais beaucoup de paquets et un OpenRC fonctionnel ça serait cool (je passe mon tour sur Calculate, chuis pas assez roots pour tenir plus de deux semaines).

[–] mat@jlai.lu 2 points 1 day ago (1 children)

Si la raison derrière Openrc est de pas avoir systemd, void est sympa avic runit, mais ça fait des années que j'ai pas touché

[–] Professeur_Falken@jlai.lu 1 points 1 day ago

Void me semble léger par rapport à mon utilisation (déjà testé). Merci pour l'aide.

[–] Skunk@jlai.lu 2 points 1 day ago* (last edited 1 day ago) (1 children)

Tcheu ce L33t !

Non je ne sais pas, mais j'imagine qu'il faut regarder du coté des distributions où c'est par défaut, donc pas de Denuvan https://en.wikipedia.org/wiki/OpenRC Dans cette liste je partirai sur Gentoo mais seulement car ça a été ma toute première distrib, je sais pas ce que ça raconte aujourd'hui.

Ca part sur des distrib pas pour les n00b, mais c'est ça d'être un r0xor

[–] Professeur_Falken@jlai.lu 1 points 1 day ago

Je vais regarder. Merci :)