Bonjour
– Résumés des articles : 7 octobre 2018
– Textes complets des articles : 15 octobre 2018
Deux types de communications sont possibles:
Travaux de recherche originaux (académiques ou
applicatifs/industriels) soumis dans un format unique de
12 pages max, publiés sous forme d’articles longs de
12 pages, d’articles courts de 6 pages ou de posters
accompagnés de résumés de 2 pages, selon leur maturité.
Chaque article accepté avec un format long ou court sera
présenté oralement lors de la conférence et les auteurs
pourront, s’ils le souhaitent, accompagner leur
communication orale par un poster.
Travaux de recherche déjà publiés dans de bonnes
conférences ou revues internationales mais inédits en
français (en vue d’une publication dans les actes
d’un résumé de 6 pages obligatoirement en français)
Marie-Christine Rousset
Présidente du CP d’EGC 2019
* * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * *
Cette année la 19ème édition de
la conférence EGC aura lieu à Metz du 21 au 25 janvier 2019
sur le Campus de Metz de CentraleSupélec.
La conférence Extraction et
Gestion des Connaissances (EGC) est un événement annuel
réunissant des chercheurs et praticiens de disciplines
relevant de la science des données et des connaissances. Ces
disciplines incluent notamment l’apprentissage automatique,
l’ingénierie et la représentation de connaissances, le
raisonnement sur des données et des connaissances, la fouille
et l’analyse de données, les systèmes d’information, les bases
de données, le web sémantique et les données ouvertes, etc.
Le traitement et l’intégration
de sources de données et de connaissances posent sans cesse de
nouveaux besoins et de nouveaux défis en termes de méthodes,
de techniques et d’outils pour acquérir les données, les
classifier, les intégrer, les représenter, les stocker, les
indexer, les visualiser, interagir avec elles, les protéger et
surtout les transformer en connaissances utiles, pertinentes
et respectueuses de nos droits.
Aux besoins de passage à
l’échelle posés par de grandes collections de données,
s’ajoutent les besoins de traitement de données hétérogènes,
de qualité variable et parfois très dynamiques allant de
l’article de journal en ligne, à la température d’un capteur
connecté, de la photo ou la vidéo virale à la position
géographique de nos voitures, des messages courts d’un
microblog aux données liées d’une base de génomique, etc.
Un défi majeur est la conception
d’algorithmes d’analyse et de raisonnement sur des données,
plus transparents, capables de repérer les biais dans les
données, d’expliquer la provenance de leurs résultats tout en
garantissant le respect de la vie privée et l’équité.
La conférence EGC est l’occasion
de faire se rencontrer académiques et industriels afin de
confronter des travaux théoriques et des applications
pratiques sur des données réelles et de communiquer des
travaux de qualité, d’échanger et de favoriser la
fertilisation croisée des idées, à travers la présentation de
travaux de recherche récents, de développements industriels et
d’applications originales.
Les actes d’EGC 2019, comprenant
les articles des communications orales ainsi que ceux associés
aux posters paraîtront dans un numéro de la revue RNTI. Les
auteurs des meilleurs articles seront invités à soumettre une
version étendue de leurs articles pour être publiés dans des
post-actes internationaux édités chez Springer.
Prix :
Cinq prix scientifiques seront
attribués lors de la conférence :
un prix pour la catégorie
« article académique » (1500 euros),
un prix pour la catégorie
« article applicatif » (1500 euros),
un prix pour le défi
Hackathon (500 euros),
un prix pour la catégorie
« démonstration » (500 euros),
un prix de thèse (500 euros)
décerné à un jeune docteur dont la thèse a été soutenue
depuis moins de trois ans dans les thématiques liées à
l’extraction et la gestion des connaissances.
Ces prix seront décernés par un
jury composé de membres du comité de pilotage. Le prix de
thèse fait l’objet d’une annonce spécifique.
Thématiques :
Les sujets d’intérêt de la
conférence incluent (liste non-exhaustive) :
Fondements de l’extraction et
de la gestion de connaissances
Apprentissage supervisé :
apprentissage profond, apprentissage de règles,
apprentissage statistique, modèles probabilistes, méthodes
d’ensembles, régression, classes déséquilibrées,
classification guidée par les connaissances
Apprentissage non supervisé :
méthodes de partitionnement et de recouvrement, méthodes
hiérarchiques, multi-vues, multi-stratégies, co-clustering,
clustering sous contraintes
Méthode de découverte de
motifs et d’ensembles de motifs : séquences, graphes,
tenseurs.
Cadre théorique pour la
fouille de données, langages de requêtes déclaratifs pour la
fouille de données, fouille de données sous contraintes,
méthodes incrémentales
Algorithmes de fouille de
données robustes au passage à l’échelle, systèmes distribués
/ parallèles pour la fouille de données
Méthodes statistiques en
fouille de données
Programmation logique
inductive
Apprentissage topologique,
variétés mathématiques
Analyse des données
symboliques
Détection d’exceptions,
d’inattendus, d’anomalies, de signaux faibles.
Visualisation et fouille
visuelle de données massives
Interrogation et raisonnement
sur des données en présence d’ontologies
Représentation, traitement et
échange de données et connaissances sur le Web sémantique et
le Web des données liées
Variété des données et
données complexes : données structurées, semi-structurées,
textuelles ; données temporelles, spatiales, géolocalisées ;
données multimédia ; données relationnelles ; données en
réseau, en graphes ; données dynamiques ; flux de données ;
données annotées à l’aide d’ontologies ; données hétérogènes
sémantiquement
Préservation de la
confidentialité et de l’anonymat
Transparence, équité et
explicabilité des algorithmes de traitement et d’analyse des
données
Aspects méthodologiques de
l’extraction et de la gestion de connaissances
Acquisition, nettoyage,
filtrage des données, réduction de dimensions, sélection et
modification des caractéristiques
Gestion des connaissances et
d’ontologies (acquisition, stockage, mise à jour,
interopérabilité, interconnexion, évolution)
Cycle de vie et alignements
des vocabulaires (ontologies, thésaurus, méta-données) sur
le Web
Préparation, architecture et
modèles de données liées sur le Web.
Intégration de connaissances
dans le processus d’extraction (ontologies, expertise,…)
Traçabilité, sécurité et
intégrité de l’information et des données
Plateformes et systèmes pour
l’extraction et la gestion de données et de connaissances
Etudes expérimentales sur des
données volumineuses
Interaction et apprentissage
actif
Visualisation, explication et
compréhension de résultats
Critères et évaluation de la
qualité des données, des connaissances extraites
Protocoles d’évaluation et
validation de modèles à partir d’utilisateurs
Interaction homme-machine en
fouille de données
Extraction et gestion de
connaissances dans des domaines émergents ou connexes
Analyse de liens, communautés
en ligne, réseaux sociaux, médias sociaux.
Fouille de données
d’opinions, de dépêches, de microblogging
Mobilité, géo-localisation,
découverte de connaissances et ubiquité, intelligence
ambiante, réseaux de capteurs, internet des objets
Big Data et nouveaux
paradigmes de traitement des données : calcul haute
performance, parallélisme, systèmes distribués
Crowdsourcing, modélisation
de comportements
Fouille du Web de données,
extraction pour le Web sémantique, annotation de ressources
multimédia pour le Web, annotation du Web des Objets
Fertilisation croisée entre
extraction de connaissances et autres domaines de recherche
ou d’applications : intelligence artificielle, sciences
sociales et humanités numériques, traitement automatique des
langues, traitement d’images, vision par ordinateur.
Applications de l’extraction et de
la gestion de connaissances
Développement durable,
transports et lieux intelligents
Informatique verte pour la
gestion et l’extraction de connaissances
Modélisation des épidémies,
recherche clinique, médecine, biologie
Détection d’intrusion,
prévention de fraude, sécurité
Mémoires d’entreprise, veille
technologique, intelligence économique
Système de recommandation,
commerce électronique, publicité en ligne
Applications dans d’autres
domaines comme la chimie, l’environnement, les sciences
sociales, l’éducation, l’économie, la finance, le tourisme,
la défense, le génie logiciel.
Format de soumission
Les soumissions seront anonymes
et se feront par voie électronique exclusivement à partir du
site web de la conférence.
Elles devront être soumises au format pdf exclusivement et
devront impérativement utiliser le format RNTI latex
disponible en téléchargement à l’adresse :
http://www.editions-rnti.fr/files/RNTI-X-Y2.1.zip
Les soumissions qui
dépasseraient 12 pages ou qui ne respecteront pas l’anonymat
et/ou le format RNTI Latex ne seront pas évaluées.
Les soumissions se font
exclusivement sur le site web easychair de la conférence :
https://easychair.org/conferences/?conf=egc2019