@inproceedings{dinarelli-grobol-2019-modeles,
title = "Mod{\`e}les neuronaux hybrides pour la mod{\'e}lisation de s{\'e}quences : le meilleur de trois mondes ()",
author = {Dinarelli, Marco and
Grobol, Lo{\"i}c},
editor = "Morin, Emmanuel and
Rosset, Sophie and
Zweigenbaum, Pierre",
booktitle = "Actes de la Conf{\'e}rence sur le Traitement Automatique des Langues Naturelles (TALN) PFIA 2019. Volume I : Articles longs",
month = "7",
year = "2019",
address = "Toulouse, France",
publisher = "ATALA",
url = "https://aclanthology.org/2019.jeptalnrecital-long.9/",
pages = "127--142",
language = "fra",
abstract = "Nous proposons une architecture neuronale avec les caract{\'e}ristiques principales des mod{\`e}les neuronaux de ces derni{\`e}res ann{\'e}es : les r{\'e}seaux neuronaux r{\'e}currents bidirectionnels, les mod{\`e}les encodeur-d{\'e}codeur, et le mod{\`e}le Transformer. Nous {\'e}valuons nos mod{\`e}les sur trois t{\^a}ches d'{\'e}tiquetage de s{\'e}quence, avec des r{\'e}sultats aux environs de l'{\'e}tat de l`art et souvent meilleurs, montrant ainsi l`int{\'e}r{\^e}t de cette architecture hybride pour ce type de t{\^a}ches."
}
<?xml version="1.0" encoding="UTF-8"?>
<modsCollection xmlns="http://www.loc.gov/mods/v3">
<mods ID="dinarelli-grobol-2019-modeles">
<titleInfo>
<title>Modèles neuronaux hybrides pour la modélisation de séquences : le meilleur de trois mondes ()</title>
</titleInfo>
<name type="personal">
<namePart type="given">Marco</namePart>
<namePart type="family">Dinarelli</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Loïc</namePart>
<namePart type="family">Grobol</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<originInfo>
<dateIssued>2019-07</dateIssued>
</originInfo>
<typeOfResource>text</typeOfResource>
<language>
<languageTerm type="text">fra</languageTerm>
</language>
<relatedItem type="host">
<titleInfo>
<title>Actes de la Conférence sur le Traitement Automatique des Langues Naturelles (TALN) PFIA 2019. Volume I : Articles longs</title>
</titleInfo>
<name type="personal">
<namePart type="given">Emmanuel</namePart>
<namePart type="family">Morin</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Sophie</namePart>
<namePart type="family">Rosset</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Pierre</namePart>
<namePart type="family">Zweigenbaum</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<originInfo>
<publisher>ATALA</publisher>
<place>
<placeTerm type="text">Toulouse, France</placeTerm>
</place>
</originInfo>
<genre authority="marcgt">conference publication</genre>
</relatedItem>
<abstract>Nous proposons une architecture neuronale avec les caractéristiques principales des modèles neuronaux de ces dernières années : les réseaux neuronaux récurrents bidirectionnels, les modèles encodeur-décodeur, et le modèle Transformer. Nous évaluons nos modèles sur trois tâches d’étiquetage de séquence, avec des résultats aux environs de l’état de l‘art et souvent meilleurs, montrant ainsi l‘intérêt de cette architecture hybride pour ce type de tâches.</abstract>
<identifier type="citekey">dinarelli-grobol-2019-modeles</identifier>
<location>
<url>https://aclanthology.org/2019.jeptalnrecital-long.9/</url>
</location>
<part>
<date>2019-7</date>
<extent unit="page">
<start>127</start>
<end>142</end>
</extent>
</part>
</mods>
</modsCollection>
%0 Conference Proceedings
%T Modèles neuronaux hybrides pour la modélisation de séquences : le meilleur de trois mondes ()
%A Dinarelli, Marco
%A Grobol, Loïc
%Y Morin, Emmanuel
%Y Rosset, Sophie
%Y Zweigenbaum, Pierre
%S Actes de la Conférence sur le Traitement Automatique des Langues Naturelles (TALN) PFIA 2019. Volume I : Articles longs
%D 2019
%8 July
%I ATALA
%C Toulouse, France
%G fra
%F dinarelli-grobol-2019-modeles
%X Nous proposons une architecture neuronale avec les caractéristiques principales des modèles neuronaux de ces dernières années : les réseaux neuronaux récurrents bidirectionnels, les modèles encodeur-décodeur, et le modèle Transformer. Nous évaluons nos modèles sur trois tâches d’étiquetage de séquence, avec des résultats aux environs de l’état de l‘art et souvent meilleurs, montrant ainsi l‘intérêt de cette architecture hybride pour ce type de tâches.
%U https://aclanthology.org/2019.jeptalnrecital-long.9/
%P 127-142
Markdown (Informal)
[Modèles neuronaux hybrides pour la modélisation de séquences : le meilleur de trois mondes ()](https://aclanthology.org/2019.jeptalnrecital-long.9/) (Dinarelli & Grobol, JEP/TALN/RECITAL 2019)
- Modèles neuronaux hybrides pour la modélisation de séquences : le meilleur de trois mondes () (Dinarelli & Grobol, JEP/TALN/RECITAL 2019)
ACL
- Marco Dinarelli and Loïc Grobol. 2019. Modèles neuronaux hybrides pour la modélisation de séquences : le meilleur de trois mondes (). In Actes de la Conférence sur le Traitement Automatique des Langues Naturelles (TALN) PFIA 2019. Volume I : Articles longs, pages 127–142, Toulouse, France. ATALA.