Labo LAMA-WeST

Intelligence artificielle
Traitement de la langue naturelle
Web sémantique

Extraction d'axiomes et de règles logique à partir de définitions de Wikipédia en langage naturel

Étudiant: Lara Haidar-Ahmad

Directeur(e): Amal Zouaq

Co-directeur(e)(s): Michel Gagnon

Le Web sémantique repose sur la création de bases de connaissances complexes reliant les données du Web. Notamment, la base de connaissance DBpedia a été créée et est considérée aujourd’hui comme le « noyau du réseau Linked Open Data ». Cependant DBpedia repose sur une ontologie très peu riche en définitions de concepts et ne prend pas en compte l’information textuelle de Wikipedia. L’ontologie de DBpedia contient principalement des liens taxonomiques et des informations sur les instances. L’objectif de notre recherche est d’interpréter le texte en langue naturelle de Wikipédia, afin d’enrichir DBpedia avec des définitions de classes, une hiérarchie de classes (relations taxonomiques) plus riche et de nouvelles informations sur les instances. Pour ce faire, nous avons recours à une approche basée sur des patrons syntaxiques implémentés sous forme de requêtes SPARQL. Ces patrons sont exécutés sur des graphes RDF représentant l’analyse syntaxique des définitions textuelles extraites de Wikipédia. Ce travail a résulté en la création de AXIOpedia, une base de connaissances expressive contenant des axiomes complexes définissant les classes, et des triplets rdf:type reliant les instances à leurs classes.

Pour plus d'informations, cliquez ici

Publications

2016

Automatic Extraction of Axioms from Wikipedia Using SPARQL

Lara Haidar-Ahmad, Amal Zouaq, Michel Gagnon

Lara Haidar-Ahmad, Amal Zouaq, Michel Gagnon

2016

Entity Typing and Linking using SPARQL Patterns and DBpedia - Winner of the Open Knowledge Extraction challenge

Lara Haidar-Ahmad, Ludovic Font, Amal Zouaq, M. Gagnon

ESWC-16 Open Knowledge Extraction Challenge, Heraklion, Greece