Le 05/09/2018 à 11:07, Marie-Christine Rousset a écrit :
Bonjour
Le site de soumissions des articles à EGC 2019 est ouvert: https://egc2019.sciencesconf.org/resource/page/id/11
– Résumés des articles : 7 octobre 2018
– Textes complets des articles : 15 octobre 2018Deux types de communications sont possibles:
- Travaux de recherche originaux (académiques ou applicatifs/industriels) soumis dans un format unique de 12 pages max, publiés sous forme d’articles longs de 12 pages, d’articles courts de 6 pages ou de posters accompagnés de résumés de 2 pages, selon leur maturité. Chaque article accepté avec un format long ou court sera présenté oralement lors de la conférence et les auteurs pourront, s’ils le souhaitent, accompagner leur communication orale par un poster.
- Travaux de recherche déjà publiés dans de bonnes conférences ou revues internationales mais inédits en français (en vue d’une publication dans les actes d’un résumé de 6 pages obligatoirement en français)
Marie-Christine Rousset Présidente du CP d'EGC 2019 [Please accept our apologies if you receive multiple copies of this Call for Papers (CFP)] * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * *Cette année la 19ème édition de la conférence EGC aura lieu à Metz du 21 au 25 janvier 2019 sur le Campus de Metz de CentraleSupélec.
La conférence Extraction et Gestion des Connaissances (EGC) est un événement annuel réunissant des chercheurs et praticiens de disciplines relevant de la science des données et des connaissances. Ces disciplines incluent notamment l’apprentissage automatique, l’ingénierie et la représentation de connaissances, le raisonnement sur des données et des connaissances, la fouille et l’analyse de données, les systèmes d’information, les bases de données, le web sémantique et les données ouvertes, etc.
Le traitement et l’intégration de sources de données et de connaissances posent sans cesse de nouveaux besoins et de nouveaux défis en termes de méthodes, de techniques et d’outils pour acquérir les données, les classifier, les intégrer, les représenter, les stocker, les indexer, les visualiser, interagir avec elles, les protéger et surtout les transformer en connaissances utiles, pertinentes et respectueuses de nos droits.
Aux besoins de passage à l’échelle posés par de grandes collections de données, s’ajoutent les besoins de traitement de données hétérogènes, de qualité variable et parfois très dynamiques allant de l’article de journal en ligne, à la température d’un capteur connecté, de la photo ou la vidéo virale à la position géographique de nos voitures, des messages courts d’un microblog aux données liées d’une base de génomique, etc.
Un défi majeur est la conception d’algorithmes d’analyse et de raisonnement sur des données, plus transparents, capables de repérer les biais dans les données, d’expliquer la provenance de leurs résultats tout en garantissant le respect de la vie privée et l’équité.
La conférence EGC est l’occasion de faire se rencontrer académiques et industriels afin de confronter des travaux théoriques et des applications pratiques sur des données réelles et de communiquer des travaux de qualité, d’échanger et de favoriser la fertilisation croisée des idées, à travers la présentation de travaux de recherche récents, de développements industriels et d’applications originales.
Les actes d’EGC 2019, comprenant les articles des communications orales ainsi que ceux associés aux posters paraîtront dans un numéro de la revue RNTI. Les auteurs des meilleurs articles seront invités à soumettre une version étendue de leurs articles pour être publiés dans des post-actes internationaux édités chez Springer.
Prix :
Cinq prix scientifiques seront attribués lors de la conférence :
- un prix pour la catégorie « article académique » (1500 euros),
- un prix pour la catégorie « article applicatif » (1500 euros),
- un prix pour le défi Hackathon (500 euros),
- un prix pour la catégorie « démonstration » (500 euros),
- un prix de thèse (500 euros) décerné à un jeune docteur dont la thèse a été soutenue depuis moins de trois ans dans les thématiques liées à l’extraction et la gestion des connaissances.
Ces prix seront décernés par un jury composé de membres du comité de pilotage. Le prix de thèse fait l’objet d’une annonce spécifique.
Thématiques :
Les sujets d’intérêt de la conférence incluent (liste non-exhaustive) :
Fondements de l’extraction et de la gestion de connaissances
- Apprentissage supervisé : apprentissage profond, apprentissage de règles, apprentissage statistique, modèles probabilistes, méthodes d’ensembles, régression, classes déséquilibrées, classification guidée par les connaissances
- Apprentissage non supervisé : méthodes de partitionnement et de recouvrement, méthodes hiérarchiques, multi-vues, multi-stratégies, co-clustering, clustering sous contraintes
- Méthode de découverte de motifs et d’ensembles de motifs : séquences, graphes, tenseurs.
- Cadre théorique pour la fouille de données, langages de requêtes déclaratifs pour la fouille de données, fouille de données sous contraintes, méthodes incrémentales
- Algorithmes de fouille de données robustes au passage à l’échelle, systèmes distribués / parallèles pour la fouille de données
- Méthodes statistiques en fouille de données
- Programmation logique inductive
- Apprentissage topologique, variétés mathématiques
- Analyse des données symboliques
- Détection d’exceptions, d’inattendus, d’anomalies, de signaux faibles.
- Visualisation et fouille visuelle de données massives
- Interrogation et raisonnement sur des données en présence d’ontologies
- Représentation, traitement et échange de données et connaissances sur le Web sémantique et le Web des données liées
- Variété des données et données complexes : données structurées, semi-structurées, textuelles ; données temporelles, spatiales, géolocalisées ; données multimédia ; données relationnelles ; données en réseau, en graphes ; données dynamiques ; flux de données ; données annotées à l’aide d’ontologies ; données hétérogènes sémantiquement
- Préservation de la confidentialité et de l’anonymat
- Transparence, équité et explicabilité des algorithmes de traitement et d’analyse des données
Aspects méthodologiques de l’extraction et de la gestion de connaissances
- Acquisition, nettoyage, filtrage des données, réduction de dimensions, sélection et modification des caractéristiques
- Gestion des connaissances et d’ontologies (acquisition, stockage, mise à jour, interopérabilité, interconnexion, évolution)
- Cycle de vie et alignements des vocabulaires (ontologies, thésaurus, méta-données) sur le Web
- Préparation, architecture et modèles de données liées sur le Web.
- Intégration de connaissances dans le processus d’extraction (ontologies, expertise,…)
- Traçabilité, sécurité et intégrité de l’information et des données
- Plateformes et systèmes pour l’extraction et la gestion de données et de connaissances
- Etudes expérimentales sur des données volumineuses
- Interaction et apprentissage actif
- Visualisation, explication et compréhension de résultats
- Critères et évaluation de la qualité des données, des connaissances extraites
- Protocoles d’évaluation et validation de modèles à partir d’utilisateurs
- Interaction homme-machine en fouille de données
Extraction et gestion de connaissances dans des domaines émergents ou connexes
- Analyse de liens, communautés en ligne, réseaux sociaux, médias sociaux.
- Fouille de données d’opinions, de dépêches, de microblogging
- Mobilité, géo-localisation, découverte de connaissances et ubiquité, intelligence ambiante, réseaux de capteurs, internet des objets
- Big Data et nouveaux paradigmes de traitement des données : calcul haute performance, parallélisme, systèmes distribués
- Crowdsourcing, modélisation de comportements
- Fouille du Web de données, extraction pour le Web sémantique, annotation de ressources multimédia pour le Web, annotation du Web des Objets
- Fertilisation croisée entre extraction de connaissances et autres domaines de recherche ou d’applications : intelligence artificielle, sciences sociales et humanités numériques, traitement automatique des langues, traitement d’images, vision par ordinateur.
Applications de l’extraction et de la gestion de connaissances
- Développement durable, transports et lieux intelligents
- Informatique verte pour la gestion et l’extraction de connaissances
- Modélisation des épidémies, recherche clinique, médecine, biologie
- Détection d’intrusion, prévention de fraude, sécurité
- Mémoires d’entreprise, veille technologique, intelligence économique
- Système de recommandation, commerce électronique, publicité en ligne
- Applications dans d’autres domaines comme la chimie, l’environnement, les sciences sociales, l’éducation, l’économie, la finance, le tourisme, la défense, le génie logiciel.
Format de soumission
Les soumissions seront anonymes et se feront par voie électronique exclusivement à partir du site web de la conférence.
Elles devront être soumises au format pdf exclusivement et devront impérativement utiliser le format RNTI latex disponible en téléchargement à l’adresse :
http://www.editions-rnti.fr/files/RNTI-X-Y2.1.zip
Les soumissions qui dépasseraient 12 pages ou qui ne respecteront pas l’anonymat et/ou le format RNTI Latex ne seront pas évaluées.
Les soumissions se font exclusivement sur le site web easychair de la conférence :
-- Marie-Christine Rousset Professor at Universite Grenoble Alpes (UGA) Senior member of Institut Universitaire de France (IUF) http://membres-liglab.imag.fr/rousset/ ______________________________________________________________ LIG (Laboratoire d'Informatique de Grenoble) Location: Room 308, IMAG Building, 700 avenue Centrale Domaine Universitaire - 38401 St Martin d'Hères Postal address: LIG - Bâtiment IMAG - CS 40700 - 38058 GRENOBLE CEDEX 9 (France) tel: (+33) (0)4 57 42 15 58