Powered by RND
PodcastsTechnologiesL'IA aujourd'hui !
Écoutez L'IA aujourd'hui ! dans l'application
Écoutez L'IA aujourd'hui ! dans l'application
(48 139)(250 169)
Sauvegarde des favoris
Réveil
Minuteur

L'IA aujourd'hui !

Podcast L'IA aujourd'hui !
Michel Levy Provençal
L'IA aujourd'hui : le podcast de l'IA par l'IA qui vous permet de rester à la page !Un podcast unique en son genre, entièrement généré par l'intelligence artifi...

Épisodes disponibles

5 sur 78
  • L'IA aujourd'hui épisode du 2025-02-04
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : DeepSeek défie OpenAI, le technocolonialisme des données, et les innovations d'OpenAI Canvas. C’est parti !Commençons par l'actualité qui secoue le monde de l'intelligence artificielle : DeepSeek, une entreprise chinoise, a surpris les géants du secteur avec son modèle open source R1. Ce modèle, développé avec une fraction de la puissance de calcul utilisée par OpenAI, offre des performances comparables aux meilleurs modèles payants. OpenAI, qui ne prévoit pas de bénéfices avant la fin de la décennie, accuse DeepSeek d'avoir utilisé ses résultats pour entraîner R1, une pratique appelée "distillation". Cette situation a ébranlé les investisseurs et pourrait bouleverser les plans de l'industrie américaine de l'IA, qui repose sur l'idée que plus de données et de puissance de calcul sont nécessaires pour progresser vers l'intelligence artificielle générale.Passons maintenant à une réflexion sur le technocolonialisme, un concept exploré par Hubert Guillaud. Ce terme décrit comment les grandes entreprises technologiques s'approprient nos données à l'échelle mondiale, prolongeant un héritage de dépossession similaire au colonialisme historique. Les Big Tech, sous couvert de progrès, renforcent les inégalités par une collecte massive de données. Cette dynamique est comparée à l'époque coloniale, où la mission civilisatrice justifiait la domination. Aujourd'hui, la surveillance et l'exploitation des travailleurs du clic sont des outils modernes de contrôle. Les auteurs appellent à une résistance inspirée des luttes anticoloniales pour réinventer notre rapport aux technologies.En parallèle, OpenAI innove avec Canvas, une interface qui permet d'écrire et de coder en collaboration avec ChatGPT. Ce nouvel outil facilite le brainstorming et l'itération sur le texte et le code, rendant le processus plus naturel et efficace. Le cours "Collaborative Writing and Coding with OpenAI Canvas", dirigé par Karina Nguyen, enseigne comment maximiser l'utilisation de cette interface. Canvas propose des suggestions d'amélioration, aide au débogage et permet une collaboration fluide entre l'utilisateur et l'IA.Enfin, revenons sur les préoccupations soulevées par les intelligences artificielles génératives. Une enseignante-chercheuse met en garde contre les dangers des grands modèles de langage, soulignant les impacts environnementaux et les implications politiques. Les infrastructures nécessaires consomment énormément de ressources, exacerbant les conflits d'accès locaux. De plus, la concentration des acteurs et des ressources soulève des inquiétudes quant à l'influence disproportionnée de quelques grandes entreprises. Les promesses de ces technologies détournent l'attention des problèmes actuels, et l'idée d'alternatives éthiques est discutée.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    --------  
    3:24
  • L'IA aujourd'hui épisode du 2025-02-03
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l'impact des modèles de langage sur les organisations, les avancées de ChatGPT en mathématiques, les nouvelles directives sur le droit d'auteur pour les œuvres générées par l'IA, et bien plus encore. C’est parti !Commençons par l'analyse de l'IA générative par le politologue Henry Farrell. Selon lui, l'IA générative, notamment les grands modèles de langage, ne constitue pas une rupture mais une continuité technologique. Ces outils sont conçus pour fluidifier les organisations en renforçant la cohérence. Farrell identifie quatre grandes catégories d'utilisation : les micro-tâches, les cartes de connaissances, les moulins à prière, et la traduction. Ces applications permettent de gérer la complexité organisationnelle, remplaçant une grande partie de la pseudo-littérature produite par les entreprises.Passons maintenant à OpenAI, qui a récemment annoncé une nouvelle version de ChatGPT, le modèle "o1". Ce modèle a considérablement amélioré ses performances en mathématiques, passant de 13 % à 83 % à l'examen de qualification pour l'Olympiade Mathématique Internationale. Cette avancée est due à une technique appelée "raisonnement en chaîne", permettant à l'IA de décomposer les problèmes et de tester ses propres réponses. Cependant, il est crucial que le public continue de vérifier les faits, car des erreurs peuvent encore survenir.En ce qui concerne le droit d'auteur, l'Office américain a clarifié sa position : les œuvres générées uniquement par l'IA ne sont pas éligibles à la protection. Cependant, les créations humaines intégrant des éléments d'IA peuvent être protégées. L'Office souligne l'importance du contrôle humain dans le processus créatif, comparant cela à la méthode de peinture de Jackson Pollock. Cette clarification vise à combler les lacunes juridiques liées à l'IA.Jetons un œil sur Mistral Small 3, le dernier modèle du laboratoire français Mistral. Avec 24 milliards de paramètres, il est optimisé pour la latence et distribué sous licence Apache 2.0, permettant une utilisation commerciale libre. Mistral Small 3 se positionne comme une alternative rapide et efficace aux modèles plus volumineux, offrant une performance comparable tout en étant trois fois plus rapide.Experian, leader en détection de fraude, utilise l'IA pour différencier les clients légitimes des bots. Grâce aux analyses comportementales de NeuroID, Experian identifie les écarts par rapport au comportement humain typique, renforçant ainsi la protection de la vie privée. Les modèles de détection de fraude sont continuellement mis à jour pour s'adapter aux nouvelles techniques de fraude, équilibrant détection et minimisation des faux positifs.Enfin, parlons de Tülu 3 405B, une application de post-formation pour les modèles à poids ouverts. Avec 405 milliards de paramètres, Tülu 3 405B atteint des performances compétitives, surpassant des modèles de même taille sur de nombreux benchmarks. L'utilisation de l'apprentissage par renforcement avec récompenses vérifiables améliore significativement les performances en mathématiques, démontrant la scalabilité et l'efficacité de cette approche.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    --------  
    3:37
  • L'IA aujourd'hui épisode du 2025-02-02
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l'impact des modèles de langage sur les organisations, les avancées de ChatGPT, les droits d'auteur pour les œuvres générées par l'IA, et bien plus encore. C’est parti !Commençons par l'analyse de l'IA générative par le politologue Henry Farrell. Selon lui, cette technologie ne constitue pas une rupture mais une continuité dans l'évolution technologique. Les grands modèles de langage, ou LLM, sont utilisés pour accomplir des micro-tâches, créer des cartes de connaissances, et automatiser des rituels organisationnels. Farrell identifie quatre grandes catégories d'utilisation : micro-tâches, cartes de connaissances, moulins à prière, et traduction. Ces outils permettent de gérer la complexité au sein des grandes organisations, améliorant ainsi la coordination des activités.Passons maintenant à OpenAI, qui a récemment annoncé un nouveau modèle de ChatGPT, nommé "o1". Ce modèle est nettement meilleur en mathématiques et en sciences que ses prédécesseurs. Un modèle antérieur n'avait obtenu que 13 % à l'examen de qualification pour l'Olympiade Mathématique Internationale, tandis que le nouveau modèle a porté ce score à 83 %. Cette amélioration est due à un processus appelé "calcul en temps de test", permettant au modèle de réfléchir à un problème de manière plus transparente.En ce qui concerne les droits d'auteur, l'Office américain a clarifié sa position sur les œuvres générées par l'IA. Les créations issues uniquement de l'IA ne sont pas éligibles à la protection par le droit d'auteur. Cependant, les œuvres créées par des humains intégrant des éléments générés par l'IA peuvent être protégées. L'Office souligne l'importance du contrôle humain dans le processus créatif, comparant cela à la méthode de peinture de Jackson Pollock.Jetons un œil à Mistral Small 3, le premier modèle de 2025 du laboratoire français Mistral. Ce modèle, optimisé pour réduire la latence, comporte 24 milliards de paramètres et est distribué sous la licence Apache 2.0. Il se positionne comme un concurrent sérieux face à des modèles plus volumineux, tout en étant plus rapide et efficace.Experian, leader dans la détection de fraude, utilise l'IA pour différencier les véritables clients des bots. Grâce aux analyses comportementales de NeuroID, Experian repère les écarts par rapport au comportement humain typique, aidant ainsi à identifier les risques sans recourir à des informations personnelles identifiables.Enfin, parlons de Tülu 3 405B, une avancée majeure dans les modèles de langage à grande échelle. Ce modèle utilise l'apprentissage par renforcement avec récompenses vérifiables, surpassant les performances de modèles tels que DeepSeek V3 et GPT-4o. Tülu 3 405B est disponible sur Google Cloud, permettant aux chercheurs de l'explorer davantage.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    --------  
    3:24
  • L'IA aujourd'hui épisode du 2025-02-01
    Bonjour et bienvenue dans L'IA Aujourd’hui, le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l'évolution de l'IA générative dans les organisations, les avancées mathématiques de ChatGPT, les précisions sur le droit d'auteur pour les œuvres générées par l'IA, le nouveau modèle Mistral Small 3, les innovations d'Experian en matière de sécurité numérique, l'intégration des feuilles de calcul dans l'ère de l'IA, et les progrès des modèles de langage ouverts.Commençons avec le politologue Henry Farrell, qui estime que l'intelligence artificielle générative n'est pas une rupture, mais une continuité technologique. Selon lui, l'IA générative, notamment les grands modèles de langage ou LLM, fluidifie les organisations en renforçant la cohérence. Elle ne remplace pas l'analyse, mais aide à gérer la complexité en accomplissant des micro-tâches, en créant des cartes de connaissances, en automatisant des tâches routinières et en facilitant la traduction, au sens large du terme. Ainsi, l'IA générative pourrait remplacer une partie de la pseudo-littérature organisationnelle et améliorer la coordination des activités.Passons maintenant à OpenAI, qui a annoncé une nouvelle version de son modèle ChatGPT, nommée "o1". Ce modèle présente des améliorations notables en mathématiques et en raisonnement. Alors que les versions précédentes peinaient avec le raisonnement logique, "o1" a réussi à obtenir un score de 83% à l'examen de qualification pour l'Olympiade Mathématique Internationale, un concours prestigieux pour les lycéens. Niloofar Mireshghallah, chercheuse à l'Université de Washington, explique que cette avancée est due à la capacité du modèle à effectuer un "raisonnement en chaîne", similaire à une démonstration étape par étape en mathématiques. Cela permet au modèle de tester et corriger ses propres réponses, rendant le raisonnement plus transparent.En ce qui concerne le droit d'auteur, l'Office américain a clarifié sa position sur les œuvres générées par l'IA. Les créations issues uniquement de l'IA, basées sur des instructions textuelles, ne sont pas protégées par le droit d'auteur. Même si un utilisateur fournit des instructions détaillées, le résultat est considéré comme une interprétation de l'IA. Cependant, si un humain intègre des éléments générés par l'IA dans une œuvre, celle-ci peut être protégée dans son ensemble. L'Office insiste sur l'importance du contrôle humain dans le processus créatif pour déterminer l'éligibilité à la protection.Du côté des modèles open-source, le laboratoire français Mistral a lancé Mistral Small 3, un modèle optimisé pour la latence avec 24 milliards de paramètres, distribué sous licence Apache 2.0. Cette licence permet une utilisation commerciale sans contraintes supplémentaires. Mistral Small 3 se positionne comme un concurrent sérieux face à des modèles plus volumineux, offrant des performances comparables au Llama 3.3 70B tout en étant plus de trois fois plus rapide. Disponible en téléchargement pour un déploiement local, il offre un bon compromis entre performance et utilisation des ressources.En matière de sécurité numérique, Experian innove avec des solutions d'IA pour améliorer la vérification d'identité et la détection de fraude. En utilisant les analyses comportementales de NeuroID, Experian examine les habitudes de frappe, les mouvements de la souris et d'autres interactions pour différencier les vrais utilisateurs des bots. Sans recourir aux informations personnelles identifiables, cette approche renforce la confidentialité tout en s'adaptant continuellement aux nouvelles techniques de fraude. L'objectif est de détecter efficacement les bots tout en minimisant les perturbations pour les utilisateurs légitimes.Abordons maintenant l'intégration des feuilles de calcul dans l'ère de l'IA. Hjalmar Gislason, fondateur et PDG de Grid, travaille sur l'adaptation des feuilles de calcul traditionnelles aux technologies d'IA. L'idée est de rendre ces outils accessibles via des interfaces en langage naturel, des services web et des appels de fonctions. En utilisant des graphiques de dépendance et des métadonnées, les feuilles de calcul peuvent être enrichies, permettant des analyses plus avancées et une interaction utilisateur améliorée. L'utilisation de modèles de langage de grande taille ouvre également de nouvelles possibilités pour automatiser et optimiser les processus métier.Enfin, parlons des progrès des modèles de langage ouverts avec le lancement de Tülu 3 405B. Avec 405 milliards de paramètres, ce modèle surpasse les performances de modèles comme DeepSeek V3 et GPT-4o dans de nombreux benchmarks. Tülu 3 405B utilise l'apprentissage par renforcement avec récompenses vérifiables, ce qui lui permet d'exceller dans des tâches comme la résolution de problèmes mathématiques. Malgré les défis techniques liés à son échelle, l'équipe a réussi à optimiser le processus d'entraînement, rendant ce modèle accessible à la communauté. Le code et le modèle sont disponibles en ligne, encouragent les utilisateurs à explorer ses capacités.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    --------  
    5:32
  • L'IA aujourd'hui épisode du 2025-01-31
    Bonjour et bienvenue dans L'IA Aujourd’hui, le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : OpenAI enquête sur DeepSeek, le réglage fin des grands modèles de langage devient plus accessible, le lancement de ChatGPT Gov pour les agences gouvernementales, les avancées de DeepSeek Janus-Pro face à DALL-E 3, et les outils pour travailler avec des modèles de langage sur Mac. C’est parti !OpenAI soupçonne que ses modèles d'IA ont été utilisés pour former ceux de DeepSeek, une entreprise chinoise d'intelligence artificielle. DeepSeek a récemment perturbé la Silicon Valley en lançant des modèles d'IA à moindre coût, concurrençant directement les offres phares d'OpenAI. OpenAI et Microsoft enquêtent sur une possible utilisation abusive de l'API d'OpenAI par DeepSeek, suspectant que l'entreprise ait intégré les modèles d'OpenAI dans les siens. Des chercheurs en sécurité de Microsoft ont détecté une exfiltration massive de données via des comptes développeurs d'OpenAI liés à DeepSeek. De plus, OpenAI a découvert que DeepSeek a utilisé la distillation, une technique permettant de former des modèles plus petits en extrayant des données de modèles plus grands et performants. Cette pratique, bien que courante, constitue ici une violation des conditions d'utilisation d'OpenAI, car elle sert à créer des modèles concurrents. Ironiquement, OpenAI a elle-même utilisé une grande partie du web sans consentement pour entraîner ses modèles. Face à cette situation, OpenAI engage des contre-mesures et collabore étroitement avec le gouvernement américain pour protéger sa propriété intellectuelle et empêcher les adversaires de s'approprier la technologie américaine.Passons maintenant au réglage fin des grands modèles de langage, qui devient plus accessible grâce à des outils low-code ou no-code. Ces outils permettent de télécharger vos données, de sélectionner un modèle de base et d'obtenir un modèle ajusté sans avoir à coder intensivement. Les LLM fonctionnent en deux étapes principales : l'entraînement préalable et le réglage fin. Lors de l'entraînement préalable, le modèle est exposé à d'énormes ensembles de données textuelles pour apprendre les structures du langage. Cependant, ces modèles restent généralistes. Le réglage fin intervient pour spécialiser le modèle sur une tâche précise en ajustant ses paramètres sur un jeu de données spécifique. Traditionnellement coûteux en calcul, le réglage fin est désormais optimisé grâce à des techniques comme LoRA et QLoRA. LoRA, par exemple, réduit le nombre de paramètres entraînables par 10 000 fois et la mémoire GPU requise par trois, tout en maintenant des performances élevées. Des outils comme Axolotl simplifient encore le processus, offrant des configurations prédéfinies et nécessitant un minimum de codage. Ainsi, il est possible de régler efficacement un LLM pour répondre aux besoins spécifiques de votre application, même avec des ressources limitées.Au chapitre des nouveautés, OpenAI a lancé ChatGPT Gov, une version spécialisée de ChatGPT destinée aux agences gouvernementales. Ces agences peuvent déployer ChatGPT Gov dans leur cloud Microsoft Azure commercial ou gouvernemental, offrant un meilleur contrôle sur la sécurité, la confidentialité et la conformité réglementaire. Aligné sur des normes strictes comme FedRAMP High, ChatGPT Gov propose des fonctionnalités similaires à ChatGPT Enterprise, telles que la sauvegarde et le partage de conversations dans un espace de travail sécurisé, le téléchargement de fichiers texte et image, et l'utilisation de GPT-4. Les employés peuvent également créer et distribuer des GPT personnalisés au sein de leur espace de travail. Plus de 90 000 utilisateurs dans plus de 3 500 agences gouvernementales aux États-Unis ont déjà échangé plus de 18 millions de messages sur ChatGPT pour améliorer leurs opérations quotidiennes. Par exemple, le laboratoire de recherche de l'Air Force l'utilise pour des tâches administratives et d'éducation à l'IA, tandis que le laboratoire national de Los Alamos facilite la recherche scientifique et l'innovation grâce à cet outil. Au niveau local, le bureau des traductions du Minnesota a amélioré ses services pour les communautés multilingues, obtenant des traductions plus rapides et précises, tout en réduisant les coûts. De même, la Pennsylvanie constate une réduction significative du temps consacré aux tâches routinières.En parlant de DeepSeek, leur modèle Janus-Pro est présenté comme un générateur d'images d'IA open source capable de surpasser DALL-E 3 d'OpenAI, tout en étant proposé à une fraction du prix. Sam Altman, figure influente de l'IA, a salué cette avancée et annoncé l'arrivée imminente de l'intelligence artificielle générale. Le modèle R1 de DeepSeek, sous licence MIT, offre des performances élevées à coût réduit, ce qui intensifie la concurrence dans le domaine. Nvidia, leader des technologies d'IA, ne voit cependant pas DeepSeek comme une menace immédiate. Cela intervient dans un contexte de restrictions d'exportation limitant la capacité de Nvidia à fournir ses puces à certains pays, afin d'empêcher le développement de supercalculateurs à des fins militaires.Enfin, Jeff Triplett partage ses expériences pour travailler avec des modèles de langage sur Mac. Il utilise principalement Ollama, un serveur capable de télécharger et d'exécuter des centaines de modèles d'IA, et son client graphique Ollamac, qui facilite la rédaction d'invites et la gestion de l'historique. Grâce à Tailscale, il accède à ses appareils Mac à distance, ce qui lui permet de prototyper à domicile tout en exécutant des modèles plus grands depuis son bureau. Jeff souligne que faire tourner des modèles localement est possible, mais le matériel grand public est souvent limité par la RAM et le GPU. Par exemple, un modèle de 8 milliards de paramètres nécessite environ 8 Go de RAM. Il recommande de consulter régulièrement la page des modèles d'Ollama et la chaîne YouTube de Matt Williams pour rester informé des évolutions. Pour gérer les bibliothèques Python, il utilise Pydantic AI, qu'il trouve plus efficace que d'autres options comme LangChain.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    --------  
    6:47

Plus de podcasts Technologies

À propos de L'IA aujourd'hui !

L'IA aujourd'hui : le podcast de l'IA par l'IA qui vous permet de rester à la page !Un podcast unique en son genre, entièrement généré par l'intelligence artificielle et présenté par le clone numérique de Michel Lévy Provençal, qui décrypte chaque jour les actualités les plus marquantes du monde de l'IA. De la Silicon Valley aux laboratoires de recherche, en passant par les implications éthiques et sociétales, découvrez une analyse approfondie des développements qui façonnent notre futur numérique.Dans chaque épisode, plongez au cœur des innovations technologiques avec des explications claires et accessibles. Ce podcast vous offre un regard unique sur la révolution de l'intelligence artificielle.Une production innovante qui utilise l'IA pour parler de l'IA, tout en gardant l'expertise et le style dynamique caractéristique de Michel Lévy Provençal.Un rendez-vous quotidien indispensable pour comprendre les enjeux qui transforment notre monde Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Site web du podcast

Écoutez L'IA aujourd'hui !, Comptoir IA 🎙️🧠🤖 ou d'autres podcasts du monde entier - avec l'app de radio.fr

Obtenez l’app radio.fr
 gratuite

  • Ajout de radios et podcasts en favoris
  • Diffusion via Wi-Fi ou Bluetooth
  • Carplay & Android Auto compatibles
  • Et encore plus de fonctionnalités
Applications
Réseaux sociaux
v7.6.0 | © 2007-2025 radio.de GmbH
Generated: 2/4/2025 - 6:52:29 AM