VideoStory/README.md

66 lines
1.4 KiB
Markdown
Raw Normal View History

2025-04-20 11:41:13 +02:00
# VideoStory
2025-04-20 12:34:42 +02:00
C'est une expérience avec Stable Diffusion 1.5, Llama 3 et du TTS qui permet la génération de "vidéo" (suite d'images) avec une histoire narrée. Il supporte potentiellement SD Video.
Ce programme n'a pas vraiment pour vocation d'être utilisé.
## Librairie
Voici les dépendances:
```
re
llama_cpp
outetts
diffusers
torch
os
moviepy
```
## Utilisation
Dans le fichier `main.py`, ajoutez dans l'appel de main() le prompt.
`SYSTEMPROMPTT` est le prompt système de Llama.
`SDBAD` est le prompt négatif de Stable Diffusion.
`SYSTEMPROMPTI` est le prompt système de Stable Diffusion.
2025-04-20 12:42:45 +02:00
`promptTtoI.txt` et `promptUtoT.txt` sont respectivement le prompt système de Stable Diffusion et celui de Llama.
2025-04-20 12:34:42 +02:00
Dans le fichier `gen.py`, dans les fonctions `loadllama()`, `loadtts()` et `loadsdxl()` vous devez ajouter vos models (fichiers locaux).
2025-04-20 12:42:45 +02:00
Le programme se lance avec `main.py`.
2025-04-20 12:34:42 +02:00
## Fonctionnement
```mermaid
flowchart TD;
sd{{"Stable Diffusion"}}
img1["Image 1"]
img2["Image 2"]
img3["Image 3"]
p1["Paragraphe 1"]
p2["Paragraphe 2"]
p3["Paragraphe 3"]
fa["Fichier Audio"]
vd{"Vidéo"}
prt{"Prompt"}
llm{{"Llama"}}
tts{{"TTS"}}
prt --> llm;
llm --> Texte;
Texte --> p1;
Texte --> p2;
Texte --> p3;
Texte --> tts;
tts --> fa;
p1 --> sd;
p2 --> sd;
p3 --> sd;
sd --> img1;
sd --> img2;
sd --> img3;
fa --> vd;
img1 --> vd;
img2 --> vd;
img3 --> vd;
```
## Exemple de sortie
2025-04-20 12:38:38 +02:00
https://uwo.nya.pub/forge/Joachim/VideoStory/src/branch/main/out.mp4