
Cet article de David Hershey explore l'utilisation du fine-tuning pour améliorer les performances des modèles de langage comme GPT-4. L'auteur a choisi de tester cette méthode sur le jeu de cartes Magic the Gathering, plus précisément sur les drafts, c'est-à-dire le choix des cartes pour construire son deck. Grâce à un service appelé 17lands, il a pu accéder à une grande quantité de données sur les choix de cartes des meilleurs joueurs. Les résultats montrent qu'un modèle affiné de 7B parvient à rivaliser avec les performances humaines. Cependant, l'affinage nécessite encore beaucoup d'expérimentation et reste coûteux, notamment pour les modèles plus grands comme GPT-3.5.
via TL;DR : lire l’article source



Laisser un commentaire