Pré-requis : - Connaissances de base en développement logiciel (peu importe le langage). - Savoir utiliser un éditeur de code (comme VS Code). - Notions générales sur le fonctionnement de l’IA ou curiosité pour les outils intelligents.
Objectifs : Comprendre le fonctionnement des modèles LLM open-source comme Llama - Utiliser Ollama pour exécuter des modèles localement - Exploiter efficacement GitHub Copilot dans leurs environnements de développement - Naviguer et coder avec assistance dans Cursor IDE - Identifier les cas d’usage pertinents pour chaque outil et les combiner intelligemment dans leur workflow.
Sanction : Attestation de fin de formation mentionnant le résultat des acquis
Référence : INT102521-F
Accessibilité : Si vous êtes en situation de handicap, nous sommes en mesure de vous accueillir, n'hésitez pas à nous contacter à referenthandicap@dawan.fr, nous étudierons ensemble vos besoins
Contact : commercial@dawan.fr
2 275,00 € HT
Présentation générale des outils d’assistance au développement
Objectifs de la formation
Cas d’usage concrets en entreprise
Comparaison rapide des outils Llama, Ollama, GitHub Copilot et Cursor IDE
Présentation de Llama et de ses différentes versions (LLaMA 2, LLaMA 3, etc.)
Capacités et limites des modèles LLM open-source
Licences et conditions d’utilisation
Téléchargement, hébergement et exécution locale
Utilisation via des API ou interfaces tierces
Présentation de l'outil Ollama
Installation et configuration (Windows, macOS, Linux)
Gestion des modèles avec Ollama (pull, run, list, show)
Lancement de modèles en local avec Ollama
Interaction avec des modèles via l'interface CLI ou HTTP
Démonstration : utilisation de Llama 3 avec Ollama
Présentation de GitHub Copilot et de ses capacités
Intégration dans VS Code, JetBrains, Neovim
Fonctionnalités principales : complétion, documentation, tests, chat
Limites et bonnes pratiques d’usage
Confidentialité et gestion des données
Comparaison avec d'autres assistants (Tabnine, Cody, etc.)
Présentation de Cursor IDE
Différences avec Visual Studio Code
Navigation assistée par IA et recherche de code
Utilisation de Copilot Chat dans Cursor
Refactoring et génération de code intelligente
Démonstration : projet guidé dans Cursor
Comparaison des usages locaux (Ollama + Llama) vs Cloud (Copilot)
Travailler avec un modèle local dans Cursor (ex : branchement Ollama)
Optimisation des flux de travail avec plusieurs assistants
Bonnes pratiques de combinaison des outils selon les besoins
Atelier : choisir les bons outils pour différents cas d’usage
Impacts sur le métier de développeur
Risques d’hallucination et relecture critique
Dépendance aux outils et souveraineté numérique
Éthique, propriété intellectuelle et conformité
Discussion ouverte : l’IA dans les pratiques professionnelles
Liens utiles pour aller plus loin (docs, projets, communautés)
Exercices pratiques et projets conseillés
Installation pas à pas des outils revus pendant la formation
FAQ des participants et synthèse des apprentissages
Délai d'accès :Le délai d’accès à la formation certifiante est de 7 jours après validation du dossier. Dans le cas d’un financement via votre CPF, la validation de votre dossier devra être réalisée 11 jours ouvrés avant le début de formation
Modalités d’évaluation : Les évaluation en cours de formations sont réalisées par les ateliers de mise en pratique et les échanges avec les formateurs
Cette formation propose une initiation pratique aux outils d’intelligence artificielle qui transforment le quotidien des développeurs. En trois jours, les participants découvrent les capacités des modèles de langage comme Llama, apprennent à les utiliser localement avec Ollama, maîtrisent GitHub Copilot comme assistant de développement, et explorent Cursor IDE, un éditeur pensé pour l’interaction fluide avec l’IA.
Pour suivre une session à distance depuis l'un de nos centres, contactez-nous.
Aucune date de programmée actuellement. Pour plus d'information sur les prochaines sessions, nous vous invitons à joindre le service commercial par téléphone au 02/318.50.01 (prix d'un appel local) ou depuis notre formulaire de contact.