VideoStory/README.md

72 lines
1.5 KiB
Markdown
Raw Normal View History

2025-04-20 11:41:13 +02:00
# VideoStory
2025-04-20 12:34:42 +02:00
C'est une expérience avec Stable Diffusion 1.5, Llama 3 et du TTS qui permet la génération de "vidéo" (suite d'images) avec une histoire narrée. Il supporte potentiellement SD Video.
Ce programme n'a pas vraiment pour vocation d'être utilisé.
## Librairie
Voici les dépendances:
```
re
llama_cpp
outetts
diffusers
torch
os
moviepy
```
## Utilisation
Dans le fichier `main.py`, ajoutez dans l'appel de main() le prompt.
`SYSTEMPROMPTT` est le prompt système de Llama.
`SDBAD` est le prompt négatif de Stable Diffusion.
2025-04-23 11:14:47 +02:00
`SYSTEMPROMPTI` est le prompt système de Llama pour Stable Diffusion.
2025-04-20 12:34:42 +02:00
2025-04-20 12:42:45 +02:00
`promptTtoI.txt` et `promptUtoT.txt` sont respectivement le prompt système de Stable Diffusion et celui de Llama.
2025-04-20 12:34:42 +02:00
Dans le fichier `gen.py`, dans les fonctions `loadllama()`, `loadtts()` et `loadsdxl()` vous devez ajouter vos models (fichiers locaux).
2025-04-20 12:42:45 +02:00
Le programme se lance avec `main.py`.
2025-04-20 12:34:42 +02:00
## Fonctionnement
```mermaid
flowchart TD;
sd{{"Stable Diffusion"}}
img1["Image 1"]
img2["Image 2"]
img3["Image 3"]
p1["Paragraphe 1"]
2025-04-23 09:23:57 +02:00
p2["Paragraphe 2 + (1)"]
p3["Paragraphe 3 + (1 + 2)"]
2025-04-20 12:34:42 +02:00
fa["Fichier Audio"]
vd{"Vidéo"}
prt{"Prompt"}
llm{{"Llama"}}
2025-04-23 09:23:57 +02:00
llm1{{"Llama"}}
llm2{{"Llama"}}
llm3{{"Llama"}}
2025-04-20 12:34:42 +02:00
tts{{"TTS"}}
prt --> llm;
llm --> Texte;
Texte --> p1;
Texte --> p2;
Texte --> p3;
Texte --> tts;
tts --> fa;
2025-04-23 09:23:57 +02:00
p1 --> llm1;
p2 --> llm2;
p3 --> llm3;
llm1 --> sd
llm2 --> sd
llm3 --> sd
2025-04-20 12:34:42 +02:00
sd --> img1;
sd --> img2;
sd --> img3;
fa --> vd;
img1 --> vd;
img2 --> vd;
img3 --> vd;
```
## Exemple de sortie
2025-04-20 12:38:38 +02:00
https://uwo.nya.pub/forge/Joachim/VideoStory/src/branch/main/out.mp4