Lorsque vous téléchargez un modèle d’IA, parfois un message vous indique que « c’est dangereux ! »
Mais pourquoi c’est dangereux ?
C’est quoi le risque ? et comment on fait pour remédier à ça ?
C’est ce qu’on va voir dans cette vidéo. On va :
- entraîner un modèle
- l’exporter
- regarder le problème avec les formats dits dangereux.
- Exploiter un serveur gradio avec un format non safetensors
NOTE : la première partie montre l’entraînement d’un modèle, afin de ne pas laisser sur la touche ceux qui n’ont pas eu l’occasion de le faire et pour que le tutoriel se suive de A à Z.Vous pouvez passer ce chapitre si vous souhaitez directement regarder l’export.Lien vers la partie 1 sur la désérialisation : https://youtu.be/rSIgMIt_-QI.
Code des exemples : https://github.com/NeuronAddict/safetensors-vs-ckpt
00:00 Introduction
00:16 Creation d’un modèle d’IA pour lire des chiffres
10:26 Export du modèle et utilisation
13:04 Le diable est dans les détails : Application vulnérable
14:16 Pourquoi c’est dangereux : Retour du pickle
16:06 Les mains dans le cambouis : dissection d’un modèle pytorch
19:13 Utilisation d’un modèle piégé pour prendre le contrôle d’un serveur
23:17 Remédiation : la solution avec pytorch
26:27 Dissection du format safetensors : démo
29:36 Si vous êtes encore là, un mot sur la suite
Liens:
L’excellent tutoriel de fastai : https://github.com/fastai/fastbook
La doc de fastai : https://docs.fast.ai
La doc de pytorch : https://pytorch.org/docs/stable/index.html
Sauvegarder/Charger vos modèles avec pytorch : https://pytorch.org/tutorials/beginner/saving_loading_models.html
Format safetensors : https://huggingface.co/docs/safetensors/index
Gradio : https://www.gradio.app/





Laisser un commentaire