L’objectif de ce tutoriel est de présenter les concepts de base de la théorie des fonctions de croyance (également nommée théorie de Dempster-Shafer ou théorie de l'évidence) et de les mettre en œuvre dans le cadre de l'apprentissage automatique. Cette théorie, qui est une alternative à la théorie de probabilité et à la théorie des possibilités, permet de modéliser des informations élémentaires à l'aide de fonctions de croyance et de les combiner à l'aide de différents opérateurs selon des hypothèses sur les sources produisant ces informations. Elle est donc non seulement bien adaptés pour la fusion d'informations mais elle permet également, dans le cadre de l'apprentissage, de modéliser les incertitudes sur les données (par exemple pour l'apprentissage partiellement supervisé) et sur les prédictions (sortie de classifieurs évidentiels). Ainsi dans le cadre de cet atelier, outre une présentation et la mise en œuvre des principes de base de cette théorie, nous présenterons et utiliserons des algorithmes évidentiels classiques d'apprentissage automatique (E-KNN, ECM,…).
Intervenants
David Mercier (LGI2A, Université d'Artois), david.mercier@univ-artois.fr, co-responsable du thème scientifique Décision et Fusion d'Informations du LGI2A, membre du bureau de l'association Belief Functions and Applications Society (BFAS), cours aux écoles de Printemps de BFAS en 2015 et 2017.
Eric Lefevre (LGI2A, Université d'Artois), eric.lefevre@univ-artois.fr (tél: 03/21/63/23/00 poste 121318), co-responsable du thème scientifique Décision et Fusion d'Informations du LGI2A, membre de BFAS, cours sur les fonctions de croyance en Master2 à l'Institut Supérieur de Gestion de Tunis en 2017.
Le but de ce tutoriel est d’étudier les différents modes de communication FIPA entre agents. Il s’agit ici d’agents à gros grain, possédant des rôles, reliés à des services, utilisant un mécanisme de boite aux lettres. Différents types de communication sont possibles : directs et nommés, par broacast, via des protocoles pré-définis. Ces communications inter-agent peuvent être utilisées pour simuler les communications complexes entre web-services, applications réparties, ... Dans ce tutoriel, progressifs, vous apprendre à créer des agents Jade, individuels, puis communiquants sous diverses formes pour les appliquer à la gestion/simulation d'échanges de messages entre des voyageurs souhaitant réserver un voyage combiné ou non et des services d’informations sur des voyages. Ces agents seront développés en Java, avec la plateforme JADE (https://emmanueladam.github.io/JadeUPHF/).
Intervenants
Emmanuel Adam (Université Polytechnique des Hauts-De-France, LAMIH UMR CNRS 8201, INSA HdF),emmanuel.adam@uphf.fr
Ce tutoriel fournit une démarche intégrée de Programmation Orientée Multi-Agents (MAOP) selon quatre dimensions complémentaires : agent, interaction, environnement et organisation. Nous illustrons cette approche en utilisant la plateforme JaCaMo, qui fournit les moyens d'intégrer de manière transparente toutes ces dimensions et de développer des systèmes multi-agents socio-techniques. JaCaMo est une plateforme de programmation qui a été développé depuis un certain nombre d'années et est robuste et complète. Le tutoriel présente les concepts et techniques MAOP pertinents à travers un scénario illustratif qui utilise simultanément l’agencement des concepts issus des quatre dimensions. En plus de la compréhension de chacune de ces dimensions, de leurs concepts et de leurs utilisations, des activités pratiques sont proposées pour chacune des dimensions afin que chaque participant puisse acquérir des compétences pratiques en matière de programmation de systèmes multi-agents selon cette démarche MAOP.
Intervenants
Olivier Boissier, Département Informatique et Systèmes Intelligents, Mines Saint-Etienne -LIMOS UMR 6158 CNRS, Email: olivier.boissier@emse.fr Homepage: https://www.emse.fr/~boissier
Luis Gustavo Nardin, Département Informatique et Systèmes Intelligents, Mines Saint-Etienne - LIMOS UMR 6158 CNRS Email: gnardin@emse.fr Homepage: https://gnardin.github.io/website/
Le tutoriel porte sur les principes de la validation scientifique multidisciplinaire et collaborative de la "trustworthy AI" comme définie par le consortium scientifique international de la z- inspection initiative dans une publication récente https://ieeexplore.ieee.org/document/9380498 . Les intervenants du tutoriel présenteront les enjeux de cette démarche internationale pour la recherche et le développement technologique en IA. Les enjeux seront clarifiés en la lumière du cadre légal Européen en vigueur et des recommandations éthiques du High Level Expert Group on Artificial Intelligence de la Commission Européenne. La première étude de cas internationale qui illustre le principe de cette démarche de validation collaboration à l'exemple d'un dispositif de détection automatique d'arrêts cardiaques à l'Hôpital de Copenhague au Denmark sera présentée. Les conflits potentiels entre éthique et lois seront mis en avant à l'aide d'exemples en médecine et en sciences humaines et sociales
Intervenants
Birgitta Dresp-Langley est Directeur de Recherche au CNRS https://trustworthyai-lab.icube.unistra.fr/ de l'UMR 7357 et de l'Université de Strasbourg, titulaire d'un doctorat en Sciences Cognitives de l'Université Paris Descartes et d'une Habilitation en Neurosciences de l'Université Louis Pasteur. Elle est membre de l'International Consumer Safety Network et du groupe d'experts de la Commission Européenne (DG-JUST Rapid Alert Unit) sur l'intelligence artificielle et la sécurité des consommateurs. Au cours des années précédentes, Birgitta a été membre du Human Frontiers Science Program Organization et Professeure invitée au Center for Adaptive Systems de l'Université de Boston.
Giovanni Sartor est actuellement chercheur principal dans le projet ERC Advanced COMPULAW à l'Université de Bologne et à l'Institut universitaire européen (EUI). Il a occupé la chaire de jurisprudence à l'Université Queen's de Belfast et a été professeur Marie-Curie à l'IUE. Giovanni a également été président de l'Association internationale pour l'intelligence artificielle et le droit.
Paola Aurucci est juriste diplômée en droit de l'Université d'Insubrie (Verese et Côme) et titulaire d'un doctorat de la Paul M. Herbert Law School de la Louisiana State University (États-Unis). Elle est spécialisée dans la responsabilité pour les atteintes à l'environnement dans les systèmes juridiques de différents pays. Depuis 2016, elle est chercheuse postdoctorale au Centre de technologie avancée en santé et bien-être de l'Université du Piémont oriental, Novare (Italie).
Damien Wagner est licencié en droit de l'Université Robert Schumann de Strasbourg et est juriste spécialisé en droit des données et en droit des affaires. Il enseigne depuis 2010 les Masters et post-Master Classes de Droit Européen à l'Université de Strasbourg. Damien est membre du Conseil d'Administration National de l'ACE (Association des Avocats Conseil d'Entreprise).
Geneviève Fieux-Castagnet est déontologue au sein de la Direction de l’Ethique du Groupe SNCF, déléguée à l’Ethique appliquée à l’IA, chargée de cours en éthique et conformité à CY Université Paris Cergy, membre du Global forum, fondatrice de PromEthosIA, un groupe de réflexion sur l’analyse éthique appliquée à l’IA. Auparavant Geneviève a été déléguée juridique territoriale du Grand Bassin Parisien normand au sein de SNCF, responsable du droit de la concurrence au sein de la direction juridique de SNCF et avocate.
Gérald Santucci est membre de l’Association du Global Forum et du comité consultatif de Z-inspection. Il est également l’ambassadeur international du Laboratoire Virtuel Européen I-VLab et le secrétaire de l’association AMALYSTE contre le Lyell et le Stevens-Johnson. Auparavant, de 1986 à 2017, il a travaillé dans le domaine des technologies numériques à la DG CNECT de la Commission Européenne où il occupa plusieurs fonctions de responsabilité, notamment comme chef de l’unité « Internet des Objets » (2004- 2012), chef de l’unité « Partage des Connaissances » (2012-2016) puis comme conseiller sur les enjeux transversaux de la recherche et des politiques associées (2016-2017).
Elena-Laura Lemaitre est urgentiste diplômée depuis 2010. Elle enseigne la didactique visuelle, notamment diverses approches de la didactique médicale, à la Haute Ecole des Arts du Rhin (HEAR). Actuellement praticienne aux urgences du CHRU de Strasbourg, Elena Laura est également membre de la Commission Scientifique de la SFMU (Société Française de Médecine d'Urgence), participant et coordonnant des projets de recherche régionaux et nationaux.
Roberto V. Zicari est Professeur affilié à l'Yrkeshögskolan Arcada, Helsinki, Finlande, et professeur auxiliaire à l'Université nationale de Séoul, Corée du Sud. Auparavant, il était professeur de bases de données et de systèmes d'information (DBIS) à l'Université Goethe de Francfort, en Allemagne, où il a fondé le Frankfurt Big Data Lab. Pendant plusieurs années, il a été professeur invité au Centre pour l'entrepreneuriat et la technologie au sein du département de génie industriel et de recherche opérationnelle à l'UC Berkeley (États-Unis). Roberto est un expert internationalement reconnu dans le domaine des bases de données et du Big Data. Ses intérêts s'étendent à l'éthique et à l'IA, à l'innovation et à l'entrepreneuriat. Il est rédacteur en chef du portail Web ODBMS.org et du blog ODBMS Industry Watch, et dirige une équipe d'experts internationaux qui a défini un processus d'évaluation pour Trustworthy AI, appelé Z-Inspection®.
Laurent Goffin est chercheur et Directeur au https://trustworthyai-lab.icube.unistra.fr/ de l'UMR 7357 CNRS et de l'Université de Strasbourg avec un diplôme d'ingénieur en informatique de l'Université Pierre et Marie Curie Paris. Laurent a de nombreuses années d'expérience en tant qu'ingénieur de recherche dans des environnements de laboratoire internationaux très dynamiques. Il développe actuellement des solutions innovantes de réalité augmentée et de navigation intra-opératoire, pour les radiologues interventionnels et les chirurgiens, visant à des procédures assistées par ordinateur et robot plus sûres dans le bloc opératoire du futur.
Dans ce tutoriel, nous allons vous présenter notre logiciel de recherche d’entités similaires dans les graphes de connaissances, qui a été conçu pour aider les utilisateurs à identifier des informations partageant des données communes ou équivalentes. Notre logiciel offre une flexibilité d’utilisation dans le processus d’appariement, avec une gestion des paramètres simplifié pour la rigueur dans le calcul de l’appariement. Au cours de la démonstration, nous allons présenter en 5 étapes, comment notre logiciel peut aider à réaliser la tâche d’appariement d’entités. Notre logiciel est facile à installer et à utiliser, avec des fonctionnalités puissantes pour optimiser la recherche d’appariement de graphes de connaissances. Nous sommes convaincus que notre logiciel peut aider à gagner en efficacité et en productivité dans la gestion des processus d’appariement de toutes tailles et complexités.
Intervenants
Bill. Gates Happi Happi, LIRMM, Department of Computer Science, University of Montpellier, Montpellier, 34095, France
Géraud Fokou Pelap, URIFIA, Department of Computer Science, University of Dschang, Dschang, 00237, Cameroon
Danai Symeonidou, Mistea, INRAE, Montpellier, 34060, Montpellier
Pierre Larmande, Diade, IRD, Montpellier, 34394, France
De nombreux problèmes, industriels ou académiques, peuvent être représentés sous la forme de conjonctions de contraintes. La programmation par contraintes consiste à modéliser ces problèmes (dans notre cas, en utilisant le langage de modélisation XCSP3), pour ensuite pouvoir les résoudre à l’aide de solveurs raisonnant sur la structure du problème considéré, indépendamment de sa sémantique. Bien que ces solveurs fournissent souvent des performances satisfaisantes, certains problèmes restent difficiles à résoudre dans un temps raisonnable. Dans ce cas, il peut être tentant d’exploiter le fonctionnement des processeurs modernes et le cloud computing pour développer des approches de résolution parallèles ou distribuées, comme celles de type portfolio ou encore Embarrassingly Parallel Search (EPS) . Dans ce tutoriel, nous présentons ces différentes approches ainsi que la difficulté de leur mise en œuvre. Pour pallier ces difficultés, des bibliothèques ont été conçues pour fournir les briques élémentaires nécessaires au développement de solveurs parallèles ou distribués . Pour ce tutoriel nous utiliserons la bibliothèque C++PANORAMYX. Celle-ci fournit un certain nombre d’interfaces définissant différentes stratégies de répartition des tâches, de partage d’informations et de synchronisation entre les solveurs, entre autres. Nous montrerons comment utiliser ces interfaces pour développer des approches de l’état de l’art et implanter de nouvelles techniques.
Intervenants
Thibault Falque est actuellement doctorant au sein du CRIL à Lens, France depuis décembre 2020 financé par l’entreprise Exakis Nelite. Sa recherche se concentre sur l’optimisation et la planification des ressources aéroportuaires.
Romain Wallon a obtenu son doctorat au sein du CRIL à l’Université d’Artois, Lens, France, en décembre 2020. Après son post-doctorat au LIX/Polytechnique à Palaiseau entre octobre 2020 et septembre 2021 dans l’équipe OptimiX, il est actuellement maître de conférences au sein du CRIL à Lens, France, depuis octobre 2021. Sa recherche se concentre sur la résolution du problème de cohérence propositionnelle, notamment par le biais du raisonnement pseudo-booléen. Il étudie également diverses applications des solveurs SAT, comme l’optimisation sous contraintes et la compilation de connaissances.
Ce tutoriel de Python, machine learning et séries temporelles sera présenté en deux parties. Dans la première partie, on présentera les principales méthodes utilisées pour l’analyse et la prédiction à partir de données temporelles. Les participants pourront ainsi acquérir une compréhension théorique approfondie des outils et techniques qui leur seront présentés. Dans la deuxième partie du tutoriel, les participants mettront en pratique les enseignements de la première partie. Les créateurs et développeurs des librairies tslearn et pyts guideront les participants dans la manipulation et la préparation de données temporelles pour l’apprentissage automatique, ainsi que dans l’implémentation de modèles de séries temporelles à l’aide de ces deux librairies. Les participants pourront ainsi appliquer concrètement les connaissances acquises dans la première partie..
Intervenants
Romain Tavenard, Professeur - Université de Rennes 2 - +33 2 99 14 18 04 - romain.tavenard@univ-rennes2.fr. Il est créateur de la librairie tslearn d’apprentissage à partir de données temporelles (3M+ téléchargements, 2k+ stars sur GitHub), ses travaux de recherche se focalisent sur l’apprentissage pour les données temporelles.
Johann Faouzi, Enseignant-chercheur - École Nationale de la Statistique et de l’Analyse de l’Information - +33 6 76 17 92 71 - johann.faouzi@ensai.fr. Il est créateur du paquet Python pyts dédié à la classification de séries temporell (près de 2M de téléchargements, 1.4k+ stars sur GitHub), une partie de ses travaux de recherche se focalisent sur l’apprentissage automatique pour les données temporelles.
Yann Cabanes, Post-doctorant à l’Université de Carleton à Ottawa (Canada) et Ingénieur de recherche à mi-temps à l’Université de Rennes 2 - +33 6 85 90 95 24 - yann.cabanes@gmail.com. Sa mission en tant qu’ingénieur de recherche à l’Université de Rennes 2 est de maintenir la librairie tslearn créée par Romain Tavenard. Il travaille notamment à l’intégration du backend PyTorch à la librairie tslearn.
L'abondance des méthodes de classification supervisées ou non trouvées dans la littérature peut s'expliquer par la forte diversité et complexité des données. Ce problème est d'autant plus prégnant en cas d'un nombre faible ou en l'absence d'exemples représentatifs de l'ensemble des classes à extraire, les méthodes comprenant toujours un a priori intrinsèque sur la nature des données. En effet, différentes méthodes peuvent produire des résultats très différents à partir des mêmes données car reposant sur la présence de certains types de caractéristiques dans ces dernières. De plus, un même algorithme peut produire des résultats différents en fonction de ses paramètres et de son initialisation. C'est pour cela que des méthodes multi-experts, basées sur la combinaison de plusieurs méthodes de classification, ont été proposées. Dans ce tutoriel, nous aborderons différentes stratégies utilisées pour obtenir le consensus d'un ensemble de résultats de méthodes aussi bien dans le domaine du supervisé que du non-supervisé. Nous expliciterons les problèmes soulevés par les différentes approches, tel que l'absence de labels communs en non-supervisé. Nous exposerons également comment la présence de multiples méthodes peut être utilisée dans un objectif de collaboration pour une amélioration mutuelle des résultats. Enfin nous donnerons un aperçu des principaux verrous scientifiques toujours existantes des méthodes actuelles, ainsi que des perspectives de recherche dans le domaine.
Intervenants
Baptiste Lafabregue, Maître de conférences à l' Université de Strasbourg, +33 (0)3 68 85 45 76, lafabregue@unistra.fr. Il effectue sa recherche dans le domaine du clustering collaboratif
Antoine Cornuéjols, professeur à AgroParisTech, +33 (0)1 44 08 72 29, antoine.cornuejols@agroparistech.fr
Pierre Gançarski, Professeur à l'Université de Strasbourg, +33 (0)3 68 85 45 76, gancarski@unistra.fr
L’Intelligence Artificielle, en particulier le Deep Learning, ne cesse d’atteindre des performances dépassant les capacités humaines. Cependant, la complexité de ces modèles rend difficile leur leur acceptation et en conséquence leur déploiement dans la mesure où leur comportement est difficilement prévisible. Pour répondre en partie à cette problématique d'acceptation et de confiance des systèmes d'IA, le domaine de l'intelligence artificielle explicable a récemment (re)vu le jour de manière très active. L'objectif de ce tutoriel est d'introduire ce domaine aux non-initiés. Après une brève introduction des motivations du domaine, il fournira un panorama des différentes approches de l'état de l'art en matière d'intelligence artificielle explicable en abordant d’une part des modèles performants et transparents et d’autre part les méthodes qui permettent d'expliquer les modèles “boîtes noires”.
Intervenants
Céline Hudelot (MICS, CentraleSupélec). Céline Hudelot est Professeur des Universités à CentraleSupélec au sein du laboratoire MICS. Elle est également directrice du laboratoire MICS depuis octobre 2022. Elle a encadré plus d'une quinzaine de thèses en IA (soutenues ou en cours). Elle est responsable de l'axe transverse Intelligence Artificielle du laboratoire et co-responsable de la mention Intelligence Artificielle du cursus Ingénieur
Wassila Ouerdane (MICS, CentraleSupélec) est Maître de Conférences (HDR) en informatique à CentraleSupélec, UniversitéParis- Saclay et membre du laboratoire MICS (Mathématiques et Informatique pour la Com- plexitédes Systèmes), au sein du Groupe de recherche LOGIMICS (LOGIcal approaches for Modelling, data Interpretation and Complex Systems). Elle a soutenu son Habilitation à Diriger des Recherches (HDR) en décembre 2022 sur le sujet: “From Preference Elicitation to Explaining Decisions : a Dialectical Perspective”. Auparavant, elle a obtenu son doctorat en informatique àl’Universitéde Paris Dauphine en 2009. Ses thématiques de recherche couvrent deux domaines : L’Intelligence Artificielle et la Théorie de la Décision. Elle s’intéresse aux questions liées à la représentation des connaissances et du raisonnement dans le contexte de l’IA explicable, avec le but d’utiliser des outils formels issus de l’IA et de la théorie de la décision pour àla fois spécifier le raisonnement des agents (résolution de conflits, explication de décisions, etc.) et faciliter l’interaction entre agents (mécanismes d’interaction). Wassila ouerdane est co-responsable du GT “Explication et Confiance” du GDR RADIA (https://gt-explicon.github.io), et co-responsable de la mention Intelligence Artificielle du cursus Ingénieur CentraleSupélec
Jean-Philippe Poli (CEA List), est expert senior en Intelligence Artificielle au CEA List, Université Paris-Saclay, dans le département pour l’Instrumentation Numérique. A son arrivée au CEA en 2007, il propose une activité sur les modèles explicables basés sur la logique floue. Depuis, l’équipe est constituée de 4 permanents et accueille des post-doctorants, des doctorants, des stagiaires et des apprentis. Il est également enseignant à CentraleSupélec et à l’INSTN où il dispense des cours en informatique, algorithmique, programmation et Intelligence Artificielle. Ses recherches concernent en particulier l’XAI, toujours à partir des modèles flous.
Ce tutoriel vise à présenter le sous-domaine de la planification à un public large. Il est organisé en trois parties. La première partie est un bref historique du domaine qui sert aussi comme introduction aux parties suivantes. Nous présentons les différentes manières de représenter un problème de planification et nous abordons également les premières techniques utilisées avec succès, comme Graphplan et SatPlan. La deuxième partie introduit la planification épistémique. Il s’agit d’une branche plus récente du domaine qui s’adresse à des problèmes de planification dans des environnements partiellement observables (voire incertains) peuplés par un ou plusieurs agents. Dans ce type d’environnement, les agents doivent être capables de raisonner sur les connaissances ou les croyances des autres agents pour agir de manière coopérative ou bien compétitive, afin d’atteindre leursobjectifs. Nous présenterons les formalismes, les résultats de complexité et parfois d’indécidabilité de ce type de problème, ainsi que quelques techniques et questions ouvertes. La troisième partie du tutoriel est dédiée à la planification temporelle dynamique, à savoir les approches utilisant une représentation explicite du temps, notamment via des graphes de contraintes, permettant d’utiliser des algorithmes de filtrage et vérification de cohérence dédiés en parallèle de la recherche d’un enchaînement causal de tâches. Les approches les plus récentes permettent d’intégrer la prise en compte d’incertitudes, avec de plus des stratégies d’intégration planification/exécution élaborées. Des notions de flexibilité, mais aussi d’urgence ou de robustesse sont définies et utilisées pour faire face à ces incertitudes, mais posent problème dans le cadre multi-agents, où le partage de flexibilité devient un problème d’optimisation à part entière. Dans ce contexte dynamique se posent d’autres problèmes qui seront abordés : le partage de ressources, la réallocation dynamique de tâches aux agents, ou la comparaison entre les architectures semi-centralisées ou décentralisées. À la fin du tutoriel, le participant aura un aperçu du domaine de la planification en IA, ainsi que quelques techniques utilisées avec succès par le passé dans des problèmes dits “classiques”. Le participant connaîtra aussi certaines des problématiques plus récentes de la planification épistémique ou de la gestion de la flexibilité dans des environnements multi-agents.
Intervenants
Frédéric Maris est maître de conférences (HDR) à l’Université Toulouse 3 depuis septembre 2014, et mène ses recherches au sein du département IA de l’IRIT. Ses intérêts de recherche portent notamment sur la planification, la théorie de la complexité, et les aspects algorithmiques du raisonnement. Au cours des dernières années, il apporté diverses contributions dans ce domaine et en particulier pour la planification temporelle et épistémique et l’utilisation de solveurs pour la résolution de tels problèmes. Il a étudié les aspects théoriques de la planification temporelle (classes traitables et relaxations, classes de langages temporels et cycles temporels), et il a développé un planificateur temporel qui a participé à la competition internationale de planification (IPC). Dans des travaux récents, il a montré que des modèles simples de planification sont PSPACE-complets, avec de nombreux problèmes de planification épistémique intéressants étant dans NP ou même dans P, même en présence de contraintes temporelles. Il a également introduit des modèles simples de planification cognitive qui sont une généralisation de la planification épistémique. De septembre 2016 à décembre 2022, Frédéric Maris a animé le groupe de travail MAFTEC du “GDR IA” (groupe de recherche CNRS) sur les aspects multi-agents, flexibles, temporels, épistémiques et contingents de la planification avec Andreas Herzig. De plus, il a donné des cours aux étudiants de Master à l’Université Paul Sabatier, sur la planification temporelle depuis cinq ans, et sur les contraintes et la planification depuis quatre ans. Il a également donné un tutoriel sur la planification temporelle, les contraintes et les classes traitables au groupe de travail MAFTEC.
Bruno Zanuttini est professeur au GREYC et à l’Université de Caen Normandie. Il s’intéresse en particulier aux aspects algorithmiques du raisonnement, à la compilation de connaissances et à la planification. Ces dernières années, il a travaillé sur la représentation de plans/politiques à base de connaissances pour des problèmes de planification; ces représentations font ainsi partie des approches qui utilisent le raisonnement épistémique pour la planification classique. Il a également travaillé sur la représentation des actions ou encore des états de connaissances pour la planification, avec une approche compilation de connaissances.
Aïdin Sumic, Après un master en informatique obtenu à l’Université de Caen, Aïdin SUMIC a effectué son stage de master et est actuellement en deuxième année de thèse au LGP à l’ENI de Tarbes, sous la direction conjointe de Thierry VIDAL, avec lequel la présentation a été préparée, et de Hedi KARRAY. Son sujet porte sur la planification distribuée de tâches et la collaboration entre agents hétérogènes, avec notamment le développement d’algorithmes de vérification et partage de flexibilité et d’interopérabilité sémantique basée sur les ontologies. Le domaine d’application est la collaboration dynamique entre services hospitaliers pour l’organisation de leurs plannings et l’optimisation de leurs ressources, en situation de crise sanitaire majeure. Il a déjà présenté plusieurs communications dans des congrès nationaux (ROADEF’22) et internationaux (ISCRAM’22); il a fait partie du comité d’organisation de ISCRAM’22; il est chargé de cours à l’ENIT en algorithmique et programmation. Un article de survey sur le domaine de l’allocation de tâches dynamique en environnement multi-agent, rédigé conjointement avec Thierry VIDAL, est en cours de finalisation et de soumission à la revue AI’Com. La présentation s’appuiera en grande partie sur ce travail. Thierry VIDAL est chercheur en planification temporelle depuis 30 ans, avec un intérêt plus spécifique sur la prise en compte des contraintes temporelles incertaines en planification et ordonnancement dynamique, dans des environnements multi-agents, réactifs, hétérogènes ou nécessitant du diagnostic; il a publié dans de nombreuses conférences spécialisées et été organisateur d’ateliers, workshops, et conférences. Il a notamment co-présenté deux tutoriaux aux conférences AAAI’02 et ICAPS’03 sur le thème de la planification et de l’ordonnancement dynamique en présence d’incertitudes et une présentation invitée au symposium TIME’04 sur la prise en compte des incertitudes temporellesen planification.
Tiago de Lima est maître de conférences HDR au Centre de Recherche en Informatique de Lens (UMR CNRS 8188) de l’Université d’Artois. Il est actuellement co-responsable du groupe de travail sur la planification flexible temporelle épistémique et contingente (GT MAFTEC1) du GDR RADIA2 du CNRS. Dans ses travaux de recherche, il s’intéresse aux langages et méthodes d’inférence liées aux logiques d’action et à la dynamique des connaissances et croyances dans des environnements multi-agents