lia_phon.htm
95.1 KB
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
604
605
606
607
608
609
610
611
612
613
614
615
616
617
618
619
620
621
622
623
624
625
626
627
628
629
630
631
632
633
634
635
636
637
638
639
640
641
642
643
644
645
646
647
648
649
650
651
652
653
654
655
656
657
658
659
660
661
662
663
664
665
666
667
668
669
670
671
672
673
674
675
676
677
678
679
680
681
682
683
684
685
686
687
688
689
690
691
692
693
694
695
696
697
698
699
700
701
702
703
704
705
706
707
708
709
710
711
712
713
714
715
716
717
718
719
720
721
722
723
724
725
726
727
728
729
730
731
732
733
734
735
736
737
738
739
740
741
742
743
744
745
746
747
748
749
750
751
752
753
754
755
756
757
758
759
760
761
762
763
764
765
766
767
768
769
770
771
772
773
774
775
776
777
778
779
780
781
782
783
784
785
786
787
788
789
790
791
792
793
794
795
796
797
798
799
800
801
802
803
804
<HTML>
<HEAD>
<META HTTP-EQUIV="Content-Type" CONTENT="text/html; charset=windows-1252">
<META NAME="Generator" CONTENT="Microsoft Word 97">
<TITLE>LIA_PHON : UN SYSTÈME COMPLET DE PHONÉTISATION DE TEXTES</TITLE>
</HEAD>
<BODY>
<B><FONT FACE="Helvetica-Bold"><P ALIGN="CENTER">LIA_PHON : UN SYSTÈME COMPLET DE PHONÉTISATION DE TEXTES</P>
<P ALIGN="CENTER"><BR>
</P>
<P ALIGN="CENTER">Frédéric BECHET </P>
<P ALIGN="CENTER"></P>
</B></FONT><P ALIGN="CENTER">LIA, Université d'Avignon</P>
<P ALIGN="CENTER">frederic.bechet@lia.univ-avignon.fr</P>
<B><FONT FACE="Helvetica-Bold"><P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY"> </P>
</B></FONT><P ALIGN="JUSTIFY">Résumé	<A HREF="#_Toc507586957">*</A>
<P ALIGN="JUSTIFY">Abstract	<A HREF="#_Toc507586958">*</A></P>
<P ALIGN="JUSTIFY">Mots Clefs – Keywords	<A HREF="#_Toc507586959">*</A></P>
<P ALIGN="JUSTIFY">INTRODUCTION	<A HREF="#_Toc507586960">*</A></P>
<P ALIGN="JUSTIFY">1.	MOTIVATIONS	<A HREF="#_Toc507586961">*</A></P><DIR>
<P ALIGN="JUSTIFY">1.1.	Phonétisation et Reconnaissance Automatique de la Parole	<A HREF="#_Toc507586962">*</A></P>
<P ALIGN="JUSTIFY">1.2. Phonétisation et TALN	<A HREF="#_Toc507586963">*</A></P>
<P ALIGN="JUSTIFY">1.3. La phonétisation au LIA	<A HREF="#_Toc507586964">*</A></P></DIR>
<P ALIGN="JUSTIFY">2.	FORMATAGE ET ÉTIQUETAGE DE TEXTE	<A HREF="#_Toc507586965">*</A></P><DIR>
<P ALIGN="JUSTIFY">2.1. Formatage	<A HREF="#_Toc507586966">*</A></P>
<P ALIGN="JUSTIFY">2.2. Etiquetage morpho-syntaxique	<A HREF="#_Toc507586967">*</A></P>
<P ALIGN="JUSTIFY">2.2.1. Réaccentuation du texte	<A HREF="#_Toc507586968">*</A></P>
<P ALIGN="JUSTIFY">2.2.2. Homographes-hétérophones	<A HREF="#_Toc507586969">*</A></P>
<P ALIGN="JUSTIFY">2.3. Etiquetage sémantique	<A HREF="#_Toc507586970">*</A></P>
<P ALIGN="JUSTIFY">2.3.1. Expressions chiffrées	<A HREF="#_Toc507586971">*</A></P>
<P ALIGN="JUSTIFY">2.3.2. Les abréviations	<A HREF="#_Toc507586972">*</A></P>
<P ALIGN="JUSTIFY">2.3.3. Les sigles	<A HREF="#_Toc507586973">*</A></P>
<P ALIGN="JUSTIFY">2.3.4. Les noms propres	<A HREF="#_Toc507586974">*</A></P>
<P ALIGN="JUSTIFY">2.3.5. Formalisme des règles d'étiquetage	<A HREF="#_Toc507586975">*</A></P></DIR>
<P ALIGN="JUSTIFY">3. PHONÉTISATION	<A HREF="#_Toc507586976">*</A></P><DIR>
<P ALIGN="JUSTIFY">3.1. Gestion des liaisons	<A HREF="#_Toc507586977">*</A></P>
<P ALIGN="JUSTIFY">3.2. Règles de phonétisation	<A HREF="#_Toc507586978">*</A></P>
<P ALIGN="JUSTIFY">3.2.1. Bases de règles	<A HREF="#_Toc507586979">*</A></P>
<P ALIGN="JUSTIFY">3.2.2. Format des règles	<A HREF="#_Toc507586980">*</A></P>
<P ALIGN="JUSTIFY">3.2.3. Stockage des règles	<A HREF="#_Toc507586981">*</A></P>
<P ALIGN="JUSTIFY">3.2.4. Application des règles	<A HREF="#_Toc507586982">*</A></P>
<P ALIGN="JUSTIFY">3.3. Gestion des exceptions	<A HREF="#_Toc507586983">*</A></P>
<P ALIGN="JUSTIFY">3.4. Exemple	<A HREF="#_Toc507586984">*</A></P></DIR>
<P ALIGN="JUSTIFY">4. EXPLOITATION DES PHONÉTISATIONS	<A HREF="#_Toc507586985">*</A></P><DIR>
<P ALIGN="JUSTIFY">4.1. Obtention de lexiques phonétiques	<A HREF="#_Toc507586986">*</A></P>
<P ALIGN="JUSTIFY">4.2. Phonétisation de textes pour l'alignement	<A HREF="#_Toc507586987">*</A></P>
<P ALIGN="JUSTIFY">4.3. Synthèse de parole à partir du texte	<A HREF="#_Toc507586988">*</A></P>
<P ALIGN="JUSTIFY">4.3.1. Modification des transcriptions phonétiques	<A HREF="#_Toc507586989">*</A></P>
<P ALIGN="JUSTIFY">4.3.2. Paramètres prosodiques	<A HREF="#_Toc507586990">*</A></P></DIR>
<P ALIGN="JUSTIFY">5. EVALUATION DU SYSTÈME	<A HREF="#_Toc507586991">*</A></P>
<P ALIGN="JUSTIFY">CONCLUSION	<A HREF="#_Toc507586992">*</A></P>
<P ALIGN="JUSTIFY">RÉFÉRENCES	<A HREF="#_Toc507586993">*</A></P>
<B><FONT FACE="Helvetica-Bold"><P ALIGN="JUSTIFY"></P></P>
<P ALIGN="JUSTIFY"> </P>
<P ALIGN="JUSTIFY"><A NAME="_Toc507586957">Résumé</A></P>
<P ALIGN="JUSTIFY"><BR>
</B></FONT>La phonétisation automatique de documents est un domaine de recherche toujours actif permettant de tester et valider efficacement différents modèles issus du Traitement Automatique du Langage Naturel (TALN). Les motivations qui ont conduit le Laboratoire Informatique d'Avignon (LIA) à développer un système complet de phonétisation de textes sont doubles : d'une part disposer d'un outil ouvert et paramétrable permettant d'obtenir les ressources nécessaires à la construction de Systèmes de Reconnaissance Automatique de la Parole (SRAP) ; d'autre part tester et valider différentes techniques utilisées en TALN, notamment concernant le traitement des mots inconnus. Les différents modules de notre chaîne de traitement intègrent des approches diverses utilisant des informations graphiques, phonétiques, morphologiques, syntaxiques et sémantiques.</P>
<P ALIGN="JUSTIFY"></P>
<B><FONT FACE="Helvetica-Bold"><P ALIGN="JUSTIFY"><A NAME="_Toc507586958">Abstract</A></P>
</B></FONT><P ALIGN="JUSTIFY"><BR>
The processes involved in Grapheme-To-Phoneme transcription of documents are a good application field for several techniques and methods used in Natural Language Processing (NLP). The two main reasons which led the computer laboratory of the University of Avignon (LIA) to develop its own Grapheme-to-Phoneme transcription system are: on one hand, we need a flexible tool which allows us to obtain all the necessary resources involved in the building of Automatic Speech Recognition (ASR) systems ; on the other hand, developing a Grapheme-to-Phoneme transcription system was an opportunity to test and validate various NLP methods and tools such as Out-of-Vocabulary word processing.</P>
<B><FONT FACE="Helvetica-Bold"><P ALIGN="JUSTIFY"><BR>
<A NAME="_Toc507586959">Mots Clefs – Keywords</A></P>
<P ALIGN="JUSTIFY"></P>
</B></FONT><P ALIGN="JUSTIFY">Synthèse de la Parole, Transcription Graphème-Phonème, Etiquetage morpho-syntaxique, Reconnaissance Automatique de la Parole, Noms Propres</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Speech Synthesis, Grapheme-to-Phoneme Transcription, Part-of-Speech Tagging, Automatic Speech Recognition, Proper Names</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY"> </P>
<P ALIGN="JUSTIFY"> </P>
<B><FONT FACE="Helvetica-Bold"><P ALIGN="JUSTIFY"><A NAME="_Toc507586760"><A NAME="_Toc507586960">INTRODUCTION</A></A></P>
<P ALIGN="JUSTIFY"></P>
</B></FONT><P ALIGN="JUSTIFY">La phonétisation automatique de documents est un domaine de recherche toujours actif permettant de tester et valider efficacement différents modèles issus du Traitement Automatique du Langage Naturel (TALN). En dehors de l'étape de transcription graphème-phonème, généralement traitée par une approche à base de règles (Prouts B. 1980; Divay M. & Vitale A. J. 1997; Boula de Mareüil P. 1997), de nombreux traitements linguistiques sont nécessaires afin de lever les ambiguïtés d'oralisation du texte écrit. Parmi celles-ci, citons les problèmes liés au formatage du texte, aux homographes hétérophones, aux liaisons, à la phonétisation des noms propres, des sigles ou des emprunts à des langues étrangères.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">La disponibilité de grandes bases de données d'exemples (telles que des lexiques phonétisés ou des corpus écrits et oraux) ont conduit la communauté scientifique à s'intéresser à des techniques d'apprentissage automatique pour prendre en compte ces problèmes particuliers. Ces techniques regroupent l'apprentissage symbolique (Dietterich T. <FONT SIZE=4>et al. </FONT>1995), les réseaux neuronaux (Sejnowski T. & Rosenberg C. 1987) ou encore les modèles markoviens (Parfitt S. & Sharman R. 1991). Ces méthodes d'apprentissage automatique, identiques celles utilisées dans les Systèmes de Reconnaissance Automatique de la Parole (SRAP), peuvent être employées à divers niveaux dans le processus de phonétisation d'un texte, depuis la phase d'étiquetage lexical jusqu'à la transcription graphème-phonème elle-même (voir (Yvon F. 1996) pour une revue des différentes méthodes automatiques employées dans ce cadre).</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Profitant de l'expertise que le LIA avait acquise dans le développement de SRAP, nous avons développé un système complet de phonétisation de textes qui, tout en gardant une approche par règles pour la phase de transcription graphème-phonème, fait collaborer différents agents utilisant des informations graphiques, phonétiques, morphologiques, syntaxiques et sémantiques.</P>
<P ALIGN="JUSTIFY"></P>
<OL>
<P ALIGN="JUSTIFY"><LI><A NAME="_Toc507586761"><A NAME="_Toc507586961"><B><FONT FACE="Helvetica-Bold">MOTIVATIONS</A></A></LI></P>
</B></FONT><P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Les motivations qui ont conduit le LIA à développer un système complet de phonétisation de textes sont doubles : d'une part disposer d'un outil ouvert et paramétrable permettant d'obtenir les ressources nécessaires à la construction de SRAP ; d'autre part tester et valider différentes techniques utilisées en TALN, notamment concernant le traitement des mots inconnus. Nous allons justifier ici ces deux motivations.</P>
<P ALIGN="JUSTIFY"> </P>
<OL>
<P ALIGN="JUSTIFY"><LI><A NAME="_Toc507586762"><A NAME="_Toc507586962"><B><FONT FACE="Arial">Phonétisation et Reconnaissance Automatique de la Parole</A></A></LI></P></OL>
</B></FONT><P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Les systèmes de transcription graphème-phonème sont des outils indispensables aux SRAP à travers deux aspects : D'une part les lexiques utilisés lors de la reconnaissance doivent associer à chaque graphie une ou plusieurs formes phonétiques afin d'autoriser une certaine variabilité dans la prononciation d'un mot par un locuteur. D'autre part les modèles acoustiques représentant les unités de base de la reconnaissance ont besoin, durant la phase d'entraînement, de corpus de parole de taille importante retranscrit phonétiquement. Or, les transcriptions disponibles pour ces corpus oraux (tel que le corpus BREF (Gauvain J. <FONT SIZE=4>et al. </FONT>1991)) sont généralement des transcriptions en mots et non pas en phonème.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Une phase de phonétisation s'avère donc nécessaire afin de calculer un alignement phonétique optimal entre les phrases prononcées et le corpus de parole. Cet alignement conditionne la qualité des modèles appris et en conséquence les performances globales de la reconnaissance. Il est donc primordial de fournir à l'aligneur, pour une phrase donnée, non pas une seule prononciation canonique mais plutôt un espace de phonétisation susceptible de contenir la réalisation du locuteur. Les textes traités étant le plus souvent des textes journalistiques, une attention particulière doit être portée au problème de la prononciation des noms propres et des acronymes, particulièrement fréquents dans ce type de corpus.</P>
<P ALIGN="JUSTIFY"> </P>
<B><FONT FACE="Arial"><P ALIGN="JUSTIFY"><A NAME="_Toc507586763"><A NAME="_Toc507586963">1.2. Phonétisation et TALN</A></A></P>
</FONT><FONT FACE="Helvetica-Bold"><P ALIGN="JUSTIFY"></P>
</B></FONT><P ALIGN="JUSTIFY">Bien souvent, il est difficile d'évaluer une technique de traitement automatique de texte en dehors de tout contexte applicatif. Notamment en ce qui concerne les techniques d'étiquetage automatique (syntaxique ou sémantique),la pertinence d'une méthode est à juger en fonction de son utilisation dans un contexte particulier : traduction, indexation de documents, filtrage, etc.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">La phonétisation automatique de texte est un domaine intéressant de ce point de vue : les phases de traitements préliminaires au processus de phonétisation ont pour but de rendre le texte aussi peu ambiguë que possible du point de vue de son oralisation. Les ambiguïtés susceptibles d'être levées se situent à divers niveaux : morphologique, lexical, syntaxique et sémantique.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Ainsi, des systèmes de TALN tels que des réaccentueurs (pour les graphies en majuscule, généralement désaccentuées), des étiqueteurs morpho-syntaxiques (pour les homographes-hétérophones), des analyseurs morphologiques (pour le traitement de flexions ambiguës), des correcteurs orthographiques ou des étiqueteurs sémantiques (pour le traitement particulier des noms propres) peuvent être évalués de manière pertinente à travers une tâche de phonétisation.</P>
<P ALIGN="JUSTIFY"> </P>
<B><FONT FACE="Arial"><P ALIGN="JUSTIFY"><A NAME="_Toc507586764"><A NAME="_Toc507586964">1.3. La phonétisation au LIA</A></A></P>
</FONT><FONT FACE="Helvetica-Bold"><P ALIGN="JUSTIFY"></P>
</B></FONT><P ALIGN="JUSTIFY">Nos travaux se placent dans la cadre de l'analyse de textes, processus indispensable à la phonétisation de corpus (Tzoukermann E. 1998). A travers les deux aspects mentionnés auparavant, nous avons développé une série d'outils permettant d'une part de produire les ressources nécessaires à la construction de systèmes de RAP ; d'autre part de valider les approches développées dans le domaine de l'étiquetage lexical et plus particulièrement dans le traitement des mots hors-vocabulaires. Ces outils peuvent se décomposer en trois modules: les outils de formatage et d'étiquetage, les outils de phonétisation et les outils d'exploitation des textes phonétisés.<FONT FACE="Arial" SIZE=1>_ </FONT>Les outils de formatage et d'étiquetage permettent de traiter le texte <FONT SIZE=4>brut </FONT>à phonétiser.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Cet ensemble d'outils regroupe des modules de découpage(en mots et en phrases), de correction (traitement des capitalisations, des formes désaccentuées et des abréviations) et d'étiquetage (morphologique et syntaxique). A la suite de ces traitements, la plupart des ambiguïtés de prononciation sont levées.<FONT FACE="Arial" SIZE=1>_ </FONT>Le module de phonétisation regroupe d'une part un ensemble de bases de règles de phonétisation relatives aux étiquettes préalablement posées et d'autre part un module de traitement des liaisons gérant les liaisons interdites, facultatives et obligatoires.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Enfin, le module d'exploitation des phonétisations permet d'adapter la sortie du système à l'application visée : gestion des schwas et des pauses pour servir d'entrée à un synthétiseur de parole, génération de prononciations multiples pour la phonétisation de lexiques utilisés dans des SRAP, etc. Nous allons présenter chacun de ces modules à travers une brève description des méthodes utilisées et en illustrant chaque étape par des exemples concrets des sorties de notre système.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY"> </P>
<P ALIGN="JUSTIFY"><LI><A NAME="_Toc507586765"><A NAME="_Toc507586965"><B><FONT FACE="Helvetica-Bold">FORMATAGE ET ÉTIQUETAGE DE TEXTE</A></A></LI></P></OL>
<P ALIGN="JUSTIFY"></P>
</B></FONT><P ALIGN="JUSTIFY">Ce module contient l'ensemble des outils permettant de lever les ambiguïtés de prononciation d'un texte <FONT SIZE=4>brut</FONT>, à l'exception des ambiguïtés phonologiques graphémiques ou morphologiques qui seront traitées par le module de phonétisation. Les traitements effectués peuvent se décomposer en deux catégories : d'une part les outils permettant de nettoyer et formater le texte à phonétiser ; d'autre part les outils d'étiquetage rajoutant aux graphies ambiguës une étiquette utilisée par les règles de phonétisation.</P>
<P ALIGN="JUSTIFY"> </P>
<B><FONT FACE="Arial"><P ALIGN="JUSTIFY"><A NAME="_Toc507586766"><A NAME="_Toc507586966">2.1. Formatage</A></A></P>
</FONT><FONT FACE="Helvetica-Bold"><P ALIGN="JUSTIFY"></P>
</B></FONT><P ALIGN="JUSTIFY">La première étape consiste à nettoyer et segmenter le corpus. Le nettoyage produit en sortie un texte composé uniquement de caractères alphabétiques représentant du texte et des ponctuations. Il s'agit donc de filtrer les caractères de contrôle, les balises de formatage, les insertions d'images ou de macro-commandes, etc. Cette étape est intimement liée au type de fichier traité. Nous nous sommes intéressé, dans notre système, au traitement des fichiers au format ASCII et HTML.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">La segmentation du corpus à pour but de découper le texte en unités logiques : paragraphes, phrases et mots. Même si cette étape ne fait pas appel à des théories linguistiques très sophistiquées, elles conditionnent très fortement les résultats finaux de l'étiquetage (Habert B. <FONT SIZE=4>et al. </FONT>1997; Grefenstette G. & Tapanainen P. 1994). La segmentation en paragraphes permet d'une part de garder une structure logique au document et d'autre part d'isoler les titres du corps du texte.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Ce dernier aspect est particulièrement important afin d'éviter de coller un titre à la phrase suivante (les titres ne comportant généralement pas de marque de fin de phrase). Lorsque le titre est entièrement en majuscule, le fait de l'isoler permettra de le traiter de manière spécifique comme nous le verrons ultérieurement. Le découpage en phrases est indispensable, dans une application de synthèse de parole à partir du texte, au module de génération prosodique. Il s'avère également obligatoire pour traiter le cas des majuscules de début de phrase.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Enfin l'étape de <FONT SIZE=4>tokenisation</FONT>, c'est à dire de découpage en mots, permet de repérer les formes inconnues du lexique de référence. Détecter ces formes va nous permettre d'appliquer, dans certains cas, des outils de correction. Ces diverses segmentations sont effectuées, dans notre système, avec d'une part un ensemble de règles codant des heuristiques et d'autre part un lexique de référence (extrait des ressources <FONT SIZE=4>BDLEX</FONT>(Pérennou G. 1988) et <FONT SIZE=4>MULTEXT</FONT>) par rapport auquel sera effectué le découpage en mots. Ces heuristiques sont assez générales pour pouvoir traiter la majorité des cas de manière satisfaisante. Les principales ambiguïtés se situent dans l'utilisation des marqueurs habituels de fin de phrase (point, point d'exclamation et point d'interrogation).</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">En effet, ces marqueurs peuvent être absent ou bien apparaître à l'intérieur d'une phrase comme dans l'exemple suivant :</P>
<P ALIGN="JUSTIFY"></P>
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">Dans la coll. Dupond, l'ouvrage "Pourquoi moi ?" à pour code : IV.12.14</P>
</FONT><P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Nos règles permettent de traiter la majorité des cas, néanmoins il est nécessaire de les adapter à chaque traitement de nouveaux corpus afin de prendre en compte les spécificités de chacun d'eux. Une fois le nettoyage terminé, l'étape suivante du formatage va consister à traiter les problèmes liés à l'éventuelle capitalisation du texte. En effet, la présence d'un ou plusieurs mots en majuscule à l'intérieur d'une phrase peut avoir des conséquences importantes sur la prononciation de ceux-ci.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Ces conséquences se situent à deux niveaux : d'une part les accents sont omis dans la majorité des mots en majuscule, ce qui pose des problèmes évidents d'oralisation. D'autre part, la capitalisation d'un mot peut être un signe distinctif indiquant qu'il s'agit d'un sigle, d'un acronyme ou même d'un simple nom propre. Enlever abusivement cette capitalisation peut avoir des conséquences fâcheuses.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Par exemple, dans la phrase <I>le LIA est à Avignon</I>, il est important de conserver les majuscules à <I><FONT SIZE=4>LIA</I> </FONT>pour éviter de le prononcer comme une flexion du verbe <FONT SIZE=4>lier</FONT>. Nous avons adopté, dans notre système, la démarche suivante :</P>
<P ALIGN="JUSTIFY"></P>
<UL>
<P ALIGN="JUSTIFY"><LI>lorsqu'une phrase entière est en majuscule, elle est traduite en minuscule en utilisant notre module de réaccentuation (présenté dans le paragraphe 2.2) ;</LI></P>
<P ALIGN="JUSTIFY"><LI>lorsqu'un mot est en majuscule ou bien s'il commence par une majuscule dans un phrase en minuscule, il est inchangé ;</LI></P>
<P ALIGN="JUSTIFY"><LI>enfin, les majuscules des mots de début de phrase sont traduite en minuscule et éventuellement réaccentuées lorsque le mot en minuscule est une entrée de notre dictionnaire de référence.</LI></P></UL>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">A la suite de ce traitement, un certain nombre de mots restent inconnus de notre dictionnaire. Ces mots peuvent être des racines inconnues, des néologismes, des flexions inusitées, des noms propres ou bien, assez souvent, des fautes de frappe. Corriger automatiquement ces fautes est un processus hasardeux, dans la mesure où le risque est grand de modifier à tort un mot réellement absent de notre dictionnaire. C'est pourquoi nous avons pris le parti d'essayer de corriger uniquement les erreurs dues à une mauvaise accentuation.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Nous justifions ce choix par la constatation suivante : l'omission d'un accent dans un mot à une conséquence immédiate sur la prononciation de celui-ci, ce qui n'est pas le cas de toutes les erreurs. De plus, il s'agit d'une erreur extrêmement fréquente, rendue encore plus inévitable à cause de la multiplicité des systèmes d'encodage des caractères accentués.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">A cette fin, lorsqu'un mot inconnu est rencontré, le système va chercher si une forme accentuée de celui-ci est présente dans le dictionnaire. Si oui, notre module de réaccentuation va se charger de choisir la forme correcte. Ce module est intimement lié au processus d'étiquetage présenté dans le paragraphe suivant.</P>
<P ALIGN="JUSTIFY"> </P>
<B><FONT FACE="Arial"><P ALIGN="JUSTIFY"><A NAME="_Toc507586767"><A NAME="_Toc507586967">2.2. Etiquetage morpho-syntaxique</A></A></P>
</FONT><FONT FACE="Helvetica-Bold"><P ALIGN="JUSTIFY"></P>
</B></FONT><P ALIGN="JUSTIFY">Ce module a pour objet d'attribuer à chaque mot une étiquette syntaxique choisie parmi un jeu de 105 étiquettes. Nous utilisons un étiqueteur statistique basé sur un modèle 3-classes tel que l'on peut trouver dans (Spriet T. & El-Bèze M. 1995; Charniak E. <FONT SIZE=4>et al. </FONT>1993; Chanod J.-P. & Tapanainen P. 1995). Cet étiquetage nous est utile à différents niveaux, notamment dans la phase de réaccentuation de texte et de traitement des homographes-hétérophones.</P>
<P ALIGN="JUSTIFY"> </P>
<FONT FACE="Arial"><P ALIGN="JUSTIFY"><A NAME="_Toc507586768"><A NAME="_Toc507586968">2.2.1. Réaccentuation du texte</A></A></P>
</FONT><B><P ALIGN="JUSTIFY"></P>
</B><P ALIGN="JUSTIFY">Lorsqu'une forme capitalisée, non accentuée, doit être traduite en caractères minuscule, il se peut que plusieurs formes accentuées lui correspondent dans le lexique de référence. Par exemple, le mot <I>VOLE</I> peut correspondre aux formes <I>vole</I> ou <I>volé</I>. Le module de réaccentuation, reprenant la méthode présentée dans (El-Bèze M. et al. 1994), utilise le processus d'étiquetage pour lever ces ambiguïtés : à chaque forme accentuée correspond, dans le lexique de l'étiqueteur, la même forme sans accent avec toutes les catégories syntaxiques que peuvent prendre les différentes formes accentuées le représentant. Une fois l'étiquetage réalisé, il suffit de faire correspondre au couple (mot désaccentué / étiquette syntaxique) la forme accentuée le représentant.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Cette méthode a été évalué sur un corpus de test contenant 150K mots extraits du journal Le Monde Diplomatique entre les années 1990-95. L'étiqueteur été entraîné sur des textes du journal Le Monde entre les années 1990-93. Il utilise un lexique de 260K formes.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Dans un premier temps nous avons supprimé tous les accents des 23K mots accentués du corpus de test(soit 15% des mots). Puis, à l'aide de l'étiqueteur et de la méthode présentée précédemment, nous avons corrigé les accents chaque fois qu'un couple mot/étiquette correspondait à une forme accentuée de notre lexique.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">En comparant le texte original avec celui issu de l'étape de réaccentuation nous obtenons les chiffres suivants :</P>
<UL>
<P ALIGN="JUSTIFY"><LI>seulement 795 mots diffèrent entre les deux textes, soit 0,52% des mots et 3,39% des mots accentués ;</LI></P>
<P ALIGN="JUSTIFY"><LI>sur ces 795 différences d'accentuation, 376 n'auront aucune influence sur la phonétisation (il s'agit principalement des confusions sur les mots à /a, où / ou, là / la, et sur les lettres î / i et û / u);</LI></P>
<P ALIGN="JUSTIFY"><LI>au final, seuls 419 mots réaccentués provoqueront des erreurs de prononciation, soit 0,27% des mots et 1,78% des mots accentués.</LI></P></UL>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Ces excellents résultats nous permette de traiter les problèmes liés à la capitalisation de textes présentés précédemment.</P>
<P ALIGN="JUSTIFY"> </P>
<FONT FACE="Arial"><P ALIGN="JUSTIFY"><A NAME="_Toc507586769"><A NAME="_Toc507586969">2.2.2. Homographes-hétérophones</A></A></P>
</FONT><B><P ALIGN="JUSTIFY"></P>
</B><P ALIGN="JUSTIFY">La majorité des mots homographes-hétérophones appartiennent à des catégories syntaxiques différentes. Par exemple les célèbres couvent/verbe et couvent/nom. En utilisant les étiquettes syntaxiques pour contraindre l'application des règles de phonétisation, nous traitons l'ensemble de ces homographes(à condition que l'étiquetage réalisé soit correct !).Ce phénomène d'homographie et d'hétérophonie ne se situe pas seulement au niveau des mots.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Par exemple, en français, le suffixe [<I>ent</I>] est ambiguë: il se prononce / ã/ si le mot auquel il appartient est un adverbe et s'il s'agit d'un verbe à la troisième personne du pluriel, il n'est pas oralisé. Si le mot à traiter est connu du lexique de l'étiqueteur, les règles de phonétisation vont utiliser l'étiquette posée pour lever l'ambiguïté. Si par contre le mot est inconnu, un traitement particulier s'impose.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Nous avons choisi de rajouter à notre étiqueteur un module de traitement des mots inconnus afin de résoudre ce problème. Ce module, présenté dans (Spriet T. et al. 1996) et (Béchet F.& El-Bèze M. 1997), va deviner une catégorie syntaxique pour le mot inconnu à partir du suffixe de celui-ci et de son contexte d'occurrence dans la phrase.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Par exemple, dans la phrase <I><U>ils ttiennent la rampe</I></U>, le doublement de la lettre <I><U>t</I></U> empêche la reconnaissance directe du mot <I><U>ttiennent</I></U> comme un verbe. Grâce à notre module, l'étiquette <I>V3P</I> , c'est à dire verbe à la troisième personne du pluriel, va lui être attribué et le suffixe [<I>ent</I>] sera correctement phonétisé.</P>
<P ALIGN="JUSTIFY"> </P>
<B><FONT FACE="Arial"><P ALIGN="JUSTIFY"><A NAME="_Toc507586770"><A NAME="_Toc507586970">2.3. Etiquetage sémantique</A></A></P>
</FONT><P ALIGN="JUSTIFY"></P>
</B><P ALIGN="JUSTIFY">L'étiquetage sémantique va concerner le traitement des expressions chiffrées, des noms propres, des sigles et de quelques cas particuliers. Cet étiquetage est effectué grâce à une base de règles prenant en compte un motet son contexte d'occurrence. Avant de présenter le formalisme de ces règles, nous allons passer en revue les différentes étiquettes susceptibles d'être posées.</P>
<P ALIGN="JUSTIFY"> </P>
<FONT FACE="Arial"><P ALIGN="JUSTIFY"><A NAME="_Toc507586771"><A NAME="_Toc507586971">2.3.1. Expressions chiffrées</A></A></P>
</FONT><B><P ALIGN="JUSTIFY"></P>
</B><P ALIGN="JUSTIFY">La prononciation d'une expression chiffrée repose intimement sur le sens véhiculée par celle-ci. Par exemple, on ne prononcera pas de la même manière une suite de chiffres selon qu'elle représente une date, un numéro de téléphone ou encore une quantité. Il est donc important, dans un premier temps, d'analyser le contexte d'occurrence afin d'identifier le type d'expression chiffrée rencontrée. Nous traitons, dans notre système, les formats les plus courants concernant les dates, les numéros de téléphone et les horaires. Dès qu'une de ces expressions est reconnue, elle est formatée pour constituer une seule entrée pour le module de phonétisation. Voici quelques exemples de ce formatage:</P>
<P ALIGN="JUSTIFY"></P>
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">36 15 SNCF	-> trente_six_quinze SNCF</P>
<P ALIGN="JUSTIFY">10:02	-> dix_heure_deux_minute</P>
<P ALIGN="JUSTIFY">90 28 00 50	-> quatre_vingt_dix_vingt_huit_zéro_zéro_cinquante</P>
<P ALIGN="JUSTIFY">26/06/95	-> vingt_six_zéro_six_quatre_vingt_quinze</P>
</FONT><P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Par défaut, toutes les autres expressions chiffrées sont considérée comme des quantités. Elles sont transcrites de manière orthographique en apportant un soin particulier au traitement des virgules séparant des séries de chiffres.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">En effet, dans les applications de synthèse de parole à partir de texte, la ponctuation n'est généralement pas oralisée. Cependant les virgules à l'intérieur d'expressions chiffrées peuvent représenter non pas une marque de ponctuation mais plutôt un séparateur entre un nombre et ses décimales. Là encore, c'est le contexte d'occurrence de l'expression chiffrée qui va nous permettre de lever l'ambiguïté : nous avons déterminé une liste de graphies pouvant suivre une expression contenant des décimales (par exemple : degrés, points). Si la virgule se trouve entre deux nombres suivis d'une de ces entrées, elle est transcrite orthographiquement pour éviter d'être considérée comme une marque de ponctuation.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Les exemples suivants illustrent ce principe :</P>
<P ALIGN="JUSTIFY"></P>
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">a gagné 12,8 points -> a gagné douze virgule huit points</P>
<P ALIGN="JUSTIFY">les 2,3,4 et 5 mai -> les deux , trois , quatre et cinq mai</P>
</FONT><P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Le dernier problème traité par notre module concerne les expressions chiffrées codées en chiffres romains. Si les grands nombres représentant les années sont peu ambiguës (par exemple <I>MCMLXXXVIII</I> pour 1988), il n'en va pas de même pour les chiffres tels que <I>I</I>, <I>V</I> ou <I>X</I>. Notre module va poser l'étiquette <I>CHIF_ROMAIN</I> chaque fois qu'un contexte d'occurrence permettra de lever l'ambiguïté : par exemple, tous les chiffres romains potentiels situés après un prénom ou avant des mots tels que siècle ou arrondissement reçoivent cette étiquette.</P>
<P ALIGN="JUSTIFY"> </P>
<FONT FACE="Arial"><P ALIGN="JUSTIFY"><A NAME="_Toc507586772"><A NAME="_Toc507586972">2.3.2. Les abréviations</A></A></P>
</FONT><B><P ALIGN="JUSTIFY"></P>
</B><P ALIGN="JUSTIFY">Nous traitons ici les acronymes représentant des abréviations et non pas les sigles dont le traitement particulier est présenté dans le prochain paragraphe. Trois types d'abréviations sont considérées :</P>
<P ALIGN="JUSTIFY"></P>
<UL>
<P ALIGN="JUSTIFY"><LI>les abréviations d'unités qui obéissent à des règles bien définies (ex : km, hl, kj, cm);</LI></P>
<P ALIGN="JUSTIFY"><LI>les titres placés devant des noms de famille (ex : Mme, Mes, Pr., Dr);</LI></P>
<P ALIGN="JUSTIFY"><LI>les abréviations latines ou communément admises (ex : etc., cad, tel, cqfd).</LI></P></UL>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Chaque fois que l'abréviation est potentiellement ambiguë, une règle examinant son contexte est appliquée afin de la retranscrire en toute lettre si la règle est satisfaite.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Par exemple :</P>
<P ALIGN="JUSTIFY"></P>
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">numéro de tel 01 16 -> numéro de téléphone zéro_un_seize</P>
<P ALIGN="JUSTIFY">10 F reçu par F. Dupont. -> dix francs reçu par F. Dupont</P>
</FONT><P ALIGN="JUSTIFY"> </P>
<FONT FACE="Arial"><P ALIGN="JUSTIFY"><A NAME="_Toc507586773"><A NAME="_Toc507586973">2.3.3. Les sigles</A></A></P>
</FONT><B><P ALIGN="JUSTIFY"></P>
</B><P ALIGN="JUSTIFY">Les sigles envahissent notre vocabulaire quotidien, leur prolifération est telle qu'on ne peut plus les ignorer dans les systèmes de TALN. La gestion d'un dictionnaire exhaustif de tous les sigles répertoriés avec leurs prononciations attestées se révèle insuffisante. En effet l'univers des sigles, loin d'être clos, est en perpétuelle expansion. Face à un sigle, on peut décider de le lire comme s'il s'agissait d'un mot ou de l'épeler lettre à lettre. Il ne s'agit pas d'un ou exclusif : en effet quelques sigles sont mi-lus, mi-épelés ( V-DAT,CDROM) et d'autre admettent les deux modes d'oralisation ( ONU, CES).</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">En ce qui concerne les processus de décision relatifs au choix d'oralisation, nous avons réalisé un module de décision lu / épelé à base de règles inspirées des travaux sur le sujet (Plénat M. 1994) (Boula de Mareüil P. 1994). La décision du mode de prononciation du sigle (épelé ou lu) est dépendante du poids du sigle exprimé sous diverses unités. L'unité de compte pouvant être la lettre ou le phonème. Nous avons extrait des règles de décision en fonction de la structure des sigles. Ces structures sont représentées en consonnes (C), consonnes occlusives (CO), consonnes liquides (CL) ou voyelles (V). Pour être lu, un sigle doit présenter au moins un doublet de type (CV). Ce qui implique que les sigles formés uniquement de consonnes ou uniquement de voyelles sont systématiquement épelés.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Au delà de cette particularité commune à tous les sigles, il convient d'introduire des règles particulières selon le nombre de lettres composant le sigle. Notre module d'étiquetage des sigles fonctionne en deux étapes : tout d'abord les sigles sont repérés dans le texte. Hormis ceux présents dans notre dictionnaire de référence, nous utilisons la capitalisation pour décider de l'attribution de l'étiquette SIGLE à un mot.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">La règle utilisée est la suivante : tout mot inconnu dont la capitalisation a été conservé par le module de formatage est considéré comme un sigle. Ensuite, les règles sur le mode d'oralisation du sigle sont appelée et l'étiquette SIGLE_LU ou SIGLE_EPELE est apposée au mot.</P>
<P ALIGN="JUSTIFY"> </P>
<FONT FACE="Arial"><P ALIGN="JUSTIFY"><A NAME="_Toc507586774"><A NAME="_Toc507586974">2.3.4. Les noms propres</A></A></P>
</FONT><B><P ALIGN="JUSTIFY"></P>
</B><P ALIGN="JUSTIFY">L'oralisation des noms propres pose un certain nombre de problème spécifiques (Yvon F. 1996) :</P>
<P ALIGN="JUSTIFY"></P>
<UL>
<P ALIGN="JUSTIFY"><LI>Le manque de normalisation dans l'évolution historique des noms propres ainsi que la persistance d'archaïsmes entraînent une augmentation de l'ambiguïté de certaines graphies. Par exemple, la séquence <I>is</I> devient ambiguë dans le mot Isle-sur-Sorgue où elle se prononce /i/.</LI></P>
<P ALIGN="JUSTIFY"><LI>Les phénomènes d'agglutination de déterminants ou de préfixes à des noms propres posent des problèmes de segmentation morphologiques comme dans les mots Montredon (Mont+ redon) et Montreux.</LI></P>
<P ALIGN="JUSTIFY"><LI>Enfin l'origine linguistique d'un nom propre conditionne sa prononciation (Belrhali R. 1995). Ce phénomène concerne à la fois les particularismes régionaux et les noms d'origine étrangères. Pour oraliser un nom étranger il convient de s'interroger sur l'origine linguistique de celui-ci, puis d'adapter la prononciation aux règles de phonétisation considérées comme compatibles avec l'origine supposée.</LI></P></UL>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Le rôle du module d'étiquetage sémantique des noms propres est d'une part d'identifier et caractériser les noms propres à phonétiser, et d'autre part d'estimer une origine linguistique en accord avec la construction du nom et son contexte d'occurrence. Nous allons présenter brièvement ces deux traitements.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">La détection des noms propres d'un texte se fait grâce à l'étiqueteur syntaxique présenté précédemment. A l'issue de cet étiquetage, les noms propres reçoivent soit l'étiquette MOTINC , soit l'une des 9 étiquettes caractérisant les noms propres dans l'ensemble des étiquettes utilisées par l'étiqueteur : nom de ville VILLE , nom de pays PAYS (avec genre et nombre), nom d'organisation ORG , prénom PREN (avec genre) et nom de famille FAMIL.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Il faut noter que le choix de ces étiquettes à été fait indépendamment de l'application de phonétisation, et qu'il dépend de considérations syntaxiques plutôt que phonétiques. Chaque nom propre détecté est alors traité par un module, appelé Devin Nom-Propre (Béchet F. et al. 1997), permettant de calculer sa probabilité d'appartenance à une groupe linguistique particulier.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">A cet effet, nous avons utilisé un corpus de développement composé de 10K noms et prénoms extraits d'articles du journal Le Monde des années 1987 à 1993. Les entrées de ce corpus ont été classé en fonction de certains traits communs caractéristiques de leurs prononciations. Cette classification a abouti à des ensemble disjoints de parleur consonance. Un ensemble de 8 groupes linguistiques a ainsi été défini de façon subjective.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Pour chacun de ces groupes, un modèle probabiliste de type3-gram a été entraîné. Lors de la phase d'étiquetage, le groupe linguistique choisi pour représenter un nom propre est celui qui maximise la probabilité d'appartenance du nom à l'ensemble des 8 groupes possibles. Les étiquettes caractérisant l'origine linguistique d'un nom propre vont être posées en fonction de ces deux traitements : si les contextes immédiats gauches et droits du nom propre sont composés de noms communs, c'est le seul module Devin Nom-Propre qui va choisir l'étiquette pertinente.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Par contre, dans le cas de séquences de noms propres, des règles vont permettre de prendre en compte un contexte plus large. Les séquences <PREN><FAMIL> ou <ORG><ORG> sont recherchées afin de calculer l'origine linguistique sur l'ensemble de la séquence. Le tableau 1 montre quelques exemples d'étiquetage de séquences <PREN><FAMIL> par notre module. On peut noter l'influence de la prise en compte du contexte dans l'attribution d'une origine linguistique à un nom propre.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Ainsi, en traitant les noms et prénoms séparément, il arrive souvent que l'étiquette posée sur chacun d'eux diffère. Par exemple, dans la séquence <I>Guy Forget</I>, le prénom <I>Guy</I> est considéré comme un prénom français alors que le nom <I>Forget</I> reçoit une étiquette le classant dans les noms d'origine anglaise. Le fait de calculer une étiquette unique en utilisant la séquence complète <I>prénom+nom</I> permet de corriger ces ambiguïtés en attribuant une étiquette cohérente pour prononcer le nom complet.</P>
<P ALIGN="JUSTIFY"></P>
<TABLE BORDER CELLSPACING=1 CELLPADDING=4 WIDTH=614>
<TR><TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">Prénom</TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">Nom</TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">PREN</TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">FAMIL</TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">PREN+FAMIL</TD>
</TR>
<TR><TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">Steffi</TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">Graf</TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">Italien</TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">Allemand</TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">Allemand</TD>
</TR>
<TR><TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">Vaclav</TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">Havel</TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">Slave</TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">Français</TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">Slave</TD>
</TR>
<TR><TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">Guy</TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">Forget</TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">Français</TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">Anglais</TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">Français</TD>
</TR>
<TR><TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">Felipe</TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">Gonzales</TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">Italien</TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">Espagne</TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">Espagne</TD>
</TR>
</TABLE>
<P ALIGN="JUSTIFY"></P>
<B><P ALIGN="CENTER">Table 1: </B>Exemples d'étiquetage de séquences prénom+nom</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY"> </P>
<FONT FACE="Arial"><P ALIGN="JUSTIFY"><A NAME="_Toc507586775"><A NAME="_Toc507586975">2.3.5. Formalisme des règles d'étiquetage</A></A></P>
</FONT><B><P ALIGN="JUSTIFY"></P>
</B><P ALIGN="JUSTIFY">Le module d'étiquetage sémantique utilise des règles prenant en compte un contexte de 4 mots et pouvant être contraintes indifféremment sur la graphie ou la catégorie syntaxique des mots (fournie par l'étiqueteur syntaxique).Le format de ces règles, proche de la syntaxe de règles Prolog, intègre les paramètres suivants :</P>
<P ALIGN="JUSTIFY"></P>
<UL>
<P ALIGN="JUSTIFY"><LI>le numéro de la règle (NUM )_</LI></P>
<P ALIGN="JUSTIFY"><LI>4 couples représentant la graphie et la catégorie des 4 mots considérés(<Gi;Ci>)</LI></P>
<P ALIGN="JUSTIFY"><LI>l'étiquette à ajouter au mot <G2;C2> si la règle est satisfaite (LABEL)</LI></P>
<P ALIGN="JUSTIFY"><LI>un exemple de contexte sur lequel la règle s'applique (EX)</LI></P>
<P ALIGN="JUSTIFY"><LI>l'éventuelle liste de contraintes sur les graphies et les catégories syntaxiques (CONT).</LI></P></UL>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Voici le format général de ces règles : </P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">CONTEXT(NUM,<<G1,C1>,<G2,C2>,<G3,C3>,<G4,C4>>,LABEL,EX)-> CONT;</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Si aucune contrainte n'est portée sur l'un des mots du contexte utilisé, le couple <G;C> peut être remplacé par le symbole M. Voici quelques exemples de règles :</P>
<P ALIGN="JUSTIFY"></P>
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">/* Identification des chiffres romains */</P>
<P ALIGN="JUSTIFY">CONTEXT(10,<<G1,"PREN">,<G2,C2>,M,M>,"CHIF_ROMAIN","Henry IV")-></P>
<P ALIGN="JUSTIFY">POTENTIEL_ROMAIN(G2) ;</P>
<P ALIGN="JUSTIFY">CONTEXT(11,<M,<"XV",C2>,<"de",C3>,M>,"CHIF_ROMAIN","XV de France")->;</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">/* Origine linguistique des noms propres */</P>
<P ALIGN="JUSTIFY">CONTEXT(16,<M,<G2,"PREN">,<G3,"FAMIL">,M>,o,"Guy Forget")-></P>
<P ALIGN="JUSTIFY">ORIGINE_DOUBLE(G2,G3,o) ;</P>
</FONT><P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Dans la phase d'étiquetage, ces règles sont appliquées de manière exclusive dans l'ordre de leur stockage dans la base. Il faut noter que ces règles permettent également d'écrire de manière élégantes des heuristiques relatives à la phonétisation de termes très particuliers.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Par exemple, certains homographes-hétérophones (heureusement fort peu nombreux) appartiennent à la même classe syntaxique. Ce n'est donc pas l'étiqueteur qui pourra lever l'ambiguïté. Il devient alors intéressant de traiter ces problèmes par des règles heuristiques simples.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Voici, par exemple, deux des règles traitant le cas épineux de la prononciation du mot fils. L'étiquette FILS_FIL signifie qu'il s'agit du pluriel de fil; l'étiquette FILS_FILS correspond à la signification enfant.</P>
<P ALIGN="JUSTIFY"></P>
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">CONTEXT(31,<M,<"fils",c2>,<"électriques",c3>,M>,"FILS_FIL","") -> ;</P>
<P ALIGN="JUSTIFY">CONTEXT(32,<M,<"fils",c2>,<"de",c3>,<g4,c4>>,"FILS_FIL","fils de fer") -></P>
<P ALIGN="JUSTIFY"> ou_bien(g4,["laine","fer","soie","coton","cuivre","métal","nylon"]) ;</P>
</FONT><P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY"> </P>
<B><FONT FACE="Helvetica-Bold"><P ALIGN="JUSTIFY"><A NAME="_Toc507586776"><A NAME="_Toc507586976">3. PHONÉTISATION</A></A></P>
</FONT><P ALIGN="JUSTIFY"></P>
</B><P ALIGN="JUSTIFY">Le module de phonétisation récupère le texte nettoyé et étiqueté afin de le traduire en symboles phonétiques. Ce module commence par traiter les phénomènes de liaisons entre les mots d'une même phrase en utilisant les résultats de l'étiqueteur morpho-syntaxique. Puis différentes bases de règles de phonétisation sont utilisées en fonction des étiquettes posées par les autres modules.</P>
<P ALIGN="JUSTIFY"> </P>
<B><FONT FACE="Arial"><P ALIGN="JUSTIFY"><A NAME="_Toc507586777"><A NAME="_Toc507586977">3.1. Gestion des liaisons</A></A></P>
</FONT><P ALIGN="JUSTIFY"></P>
</B><P ALIGN="JUSTIFY">La liaison est la survivance de quelques enchaînements de consonnes finales en ancien français : autrefois, toutes les consonnes finales étaient prononcées ; en français moderne, un certain nombre de ces consonnes sont muettes dans les mots pris isolément mais on les prononce lorsque le lien entre un mot (à finale consonantique) et le mot suivant (à l'initiale vocalique)est assez fort pour que se conserve l'enchaînement ancien. Toute la difficulté du traitement des liaisons résulte précisément de l'appréciation de la force de ce lien.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">On distingue généralement trois types de liaisons : les liaisons obligatoires, interdites et facultatives. Malgré quelques principes généraux, les règles qui régissent ces liaisons sont souvent floues et font appel à des considérations syntaxiques, parfois sémantiques. Néanmoins, nous avons extrait de la littérature (El-Bèze M. 1990; GrevisseM. 1993) un certain nombre de règles que nous avons formalisées de manière analogue à celles présentées dans le module d'étiquetage.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Les critères qui nous permettent de trancher pour déterminer la présence ou l'absence de liaison entre deux mots sont la graphie et la catégorie syntaxique, non seulement des mots examinés, mais aussi des mots qui les précèdent où les suivent. Nous avons choisi de formaliser dans un premier temps uniquement les liaisons interdites et obligatoires. Les liaisons facultatives peuvent être rajoutées facilement en insérant de nouvelles règles dans la base.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">De même que pour l'étiquetage sémantique, nous utilisons les étiquettes syntaxiques posées par notre module d'étiquetage statistique ainsi qu'un moteur permettant de traiter les règles de génération des liaisons. Deux autres phénomènes, outre les règles de liaison décrites, sont pris en charge à l'aide du même formalisme : les phénomènes de dénasalisation lors de la production d'une liaison en [n] et les réalisations de la consonne finale dans les expressions chiffrées avec six, huit, neuf, dix et vingt.</P>
<P ALIGN="JUSTIFY"> </P>
<B><FONT FACE="Arial"><P ALIGN="JUSTIFY"><A NAME="_Toc507586778"><A NAME="_Toc507586978">3.2. Règles de phonétisation</A></A></P>
</FONT><P ALIGN="JUSTIFY"> </P>
</B><FONT FACE="Arial"><P ALIGN="JUSTIFY"><A NAME="_Toc507586779"><A NAME="_Toc507586979">3.2.1. Bases de règles</A></A></P>
</FONT><B><P ALIGN="JUSTIFY"></P>
</B><P ALIGN="JUSTIFY">Le phonétiseur du système LIA_PHON contient 11 bases de phonétisation relatives aux étiquettes posées par le module d'étiquetage. Ces bases se décomposent de la manière suivante :</P>
<UL>
<P ALIGN="JUSTIFY"><LI>1 base contenant environ 1000 règles permettant de phonétiser les mots du français standard.</LI></P>
<P ALIGN="JUSTIFY"><LI>8 bases correspondant aux 8 groupes linguistiques auxquels sont susceptibles d'appartenir les noms propres. Ces bases contiennent de 200 à 500 règles et sont censé refléter la manière dont un locuteur français prononcerais un nom propre qu'il devine d'origine étrangère.</LI></P>
<P ALIGN="JUSTIFY"><LI>1 base pour phonétiser les sigles épelés (34 règles).</LI></P>
<P ALIGN="JUSTIFY"><LI>1 base pour traiter le cas des sigles lus (120 règles) car leurs règles de prononciation diffèrent de celles des mots usuels (par exemple, la séquence [AI] se prononce /ai/ dans le sigle MAIF).</LI></P></UL>
<P ALIGN="JUSTIFY"> </P>
<FONT FACE="Arial"><P ALIGN="JUSTIFY"><A NAME="_Toc507586780"><A NAME="_Toc507586980">3.2.2. Format des règles</A></A></P>
</FONT><B><P ALIGN="JUSTIFY"></P>
</B><P ALIGN="JUSTIFY">Les informations contenues dans les règles de phonétisation sont : le numéro de la règle NUM ; la chaîne représentant le contexte gauche de la graphie à transcrire C_GAUCHE ; la chaîne représentant la graphie à transcrire GRAPH ; la chaîne représentant le contexte droit de la graphie à transcrire C_DROIT ; la chaîne de phonèmes se substituant à la graphie à transcrire PHO ; un exemple de mot sur lequel la règle en question pourrait s'appliquer EX ; l'éventuelle contrainte grammaticale conditionnant la transcription CONT.</P>
<P ALIGN="JUSTIFY">Une règle de réécriture se présente sous la forme suivante :</P>
<P ALIGN="JUSTIFY"></P>
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">REGLE(NUM,<C_GAUCHE,GRAPH,C_DROIT>,PHO,EX)-> CONT ;</P>
</FONT><P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">avec les symboles suivants qui peuvent être utilisés dans les contextes droit ou gauche des règles :</P>
<UL>
<P ALIGN="JUSTIFY"><LI>le symbole "_" codant un espace</LI></P>
<P ALIGN="JUSTIFY"><LI>C qui désigne une consonne quelconque</LI></P>
<P ALIGN="JUSTIFY"><LI>V qui désigne une voyelle quelconque</LI></P>
<P ALIGN="JUSTIFY"><LI>S indique que la fin d'un mot peut être "s_" ou "_" (gestion des pluriels)</LI></P></UL>
<P ALIGN="JUSTIFY"> </P>
<FONT FACE="Arial"><P ALIGN="JUSTIFY"><A NAME="_Toc507586781"><A NAME="_Toc507586981">3.2.3. Stockage des règles</A></A></P>
</FONT><B><P ALIGN="JUSTIFY"></P>
</B><P ALIGN="JUSTIFY">A chaque règle sont associé trois scores calculés à partir des chaînes de caractères représentant la graphie à transcrire et le contexte droit (GRAPH +C_DROIT ), le contexte gauche (C_GAUCHE ) et enfin l'éventuelle contrainte(CONT).</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Les scores de chaque règle représentent le degré de précision dans la modélisation du contexte de phonétisation d'une graphie. Ce degré de précision s'exprime à partir de la taille des contextes et du niveau de représentation choisi (classe de lettres ou lettre précise). Les règles de chaque bases ont triées automatiquement selon les valeurs de leurs scores, d'abord sur GRAPH + C_DROIT puis en cas d'égalité sur C_GAUCHE et enfin sur CONT.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Ainsi les cas particuliers sont placés avant les cas généraux de telle sorte que les règles les plus restrictives sont appliquées en priorité. Le tri est fait lors de l'initialisation du programme de phonétisation. De ce fait, aucune contrainte n'est imposée sur le lieu d'insertion des nouvelles règles dans la base. Le risque de masquer des règles particulières par l'insertion, à une mauvaise place dans la base, d'une règle plus générale n'existe donc pas.</P>
<P ALIGN="JUSTIFY"> </P>
<FONT FACE="Arial"><P ALIGN="JUSTIFY"><A NAME="_Toc507586782"><A NAME="_Toc507586982">3.2.4. Application des règles</A></A></P>
</FONT><B><P ALIGN="JUSTIFY"></P>
</B><P ALIGN="JUSTIFY">Le premier traitement, dans la phase d'application des règles, consiste à segmenter la graphie à prononcer en syllabes. Cette étape, même si elle n'est pas indispensable à la transcription graphème-phonème, permet de simplifier l'écriture de certaines règles en traitant le cas des groupes de lettres non sécables en amont de l'application des règles. Cela permet également au système de fournir en sortie un texte phonétisé déjà découpé en syllabes. Les règles de syllabification utilisées sont des règles classiques utilisant des classes de consonnes et voyelles non sécables.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Une fois ce découpage effectué, la recherche de la prochaine règle de phonétisation à appliquer se fait de manière dichotomique sur le score associé à GRAPH+C_DROIT . Les bornes de la recherche sont obtenues en calculant un poids minimal et un poids maximal à partir de la graphie à transcrire. Cette recherche est rendu possible grâce au tri automatique de la base de règle.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Elle a l'avantage de limiter la recherche séquentielle d'une règle au sous-ensemble de règles ayant même score pour leur chaîne GRAPH + C_DROIT. La première règle trouvée qui satisfait les quatre conditions sur GRAPH ,C_DROIT , C_GAUCHE et CONT est immédiatement appliquée : le champ GRAPH se réécrit en la suite de phonèmes se trouvant dans le champ PHO .Dès qu'une règle a été appliquée, on réitère le processus pour phonétiser la suite du mot.</P>
<P ALIGN="JUSTIFY"> </P>
<B><FONT FACE="Arial"><P ALIGN="JUSTIFY"><A NAME="_Toc507586783"><A NAME="_Toc507586983">3.3. Gestion des exceptions</A></A></P>
</FONT><P ALIGN="JUSTIFY"></P>
</B><P ALIGN="JUSTIFY">Certains mots constituent des contre-exemples aux règles de phonétisation classiques. Si un tel mot tolère des flexions, il est intéressant de le coder sous la forme d'une règle généralisable dans la base. Par contre, si des flexions sont impossibles, représenter un mot par une règle risque de surcharger inutilement la base. LIA_PHON donne donc la possibilité à l'utilisateur de définir un lexique d'exceptions, avec les phonétisations correspondantes. Ce lexique est consulté avant toute recherche de règles : si le mot à phonétiser est présent, il est transcrit directement et l'étiquette EXCEPTION lui est apposé. Ce lexique est codé sous la forme d'un arbre en partie commune sur les graphies afin de garantir un temps constant d'accès aux éléments quelle que soit la taille du lexique.</P>
<P ALIGN="JUSTIFY"> </P>
<B><FONT FACE="Arial"><P ALIGN="JUSTIFY"><A NAME="_Toc507586784"><A NAME="_Toc507586984">3.4. Exemple</A></A></P>
</FONT><P ALIGN="JUSTIFY"></P>
</B><P ALIGN="JUSTIFY">Voici un exemple de traitement, à l'issue du processus de formatage, d'étiquetage et de phonétisation, sur la phrase suivante : <I>Depuis le 21 avril, 12,8% des actions de la COGETA apartiennent à Paulo Fibonacci.</P>
</I><P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Les phonèmes sont donnés en code SAMPA. On peut noter les liaisons réalisées entre <I>21</I> et <I>avril</I>, <I>des</I> et <I>actions</I>, <I>apartiennent</I> et <I>à</I>. La phonétisation du nom propre <I>Paula Fibonacci</I> a été réalisé par la base de règles de phonétisation représentant la prononciation française de noms d'origine italienne.</P>
<P ALIGN="JUSTIFY"></P>
<TABLE CELLSPACING=0 BORDER=0 CELLPADDING=4 WIDTH=651>
<TR><TD WIDTH="30%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY"><s></FONT></TD>
<TD WIDTH="38%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">ZTRM</FONT></TD>
<TD WIDTH="32%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">##</FONT></TD>
</TR>
<TR><TD WIDTH="30%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">depuis</FONT></TD>
<TD WIDTH="38%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">PREP</FONT></TD>
<TD WIDTH="32%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">d @ p H i</FONT></TD>
</TR>
<TR><TD WIDTH="30%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">le</FONT></TD>
<TD WIDTH="38%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">DETMS</FONT></TD>
<TD WIDTH="32%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">l @</FONT></TD>
</TR>
<TR><TD WIDTH="30%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">vingt-et-un</FONT></TD>
<TD WIDTH="38%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">CHIF</FONT></TD>
<TD WIDTH="32%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">v e~ t e 9~</FONT></TD>
</TR>
<TR><TD WIDTH="30%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">avril</FONT></TD>
<TD WIDTH="38%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">NMS</FONT></TD>
<TD WIDTH="32%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">n a v R i l</FONT></TD>
</TR>
<TR><TD WIDTH="30%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">,</FONT></TD>
<TD WIDTH="38%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">YPFAI</FONT></TD>
<TD WIDTH="32%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">##</FONT></TD>
</TR>
<TR><TD WIDTH="30%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">douze</FONT></TD>
<TD WIDTH="38%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">CHIF</FONT></TD>
<TD WIDTH="32%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">d u z</FONT></TD>
</TR>
<TR><TD WIDTH="30%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">virgule</FONT></TD>
<TD WIDTH="38%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">CHIF</FONT></TD>
<TD WIDTH="32%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">v i R g y l</FONT></TD>
</TR>
<TR><TD WIDTH="30%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">huit</FONT></TD>
<TD WIDTH="38%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">CHIF</FONT></TD>
<TD WIDTH="32%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">H i</FONT></TD>
</TR>
<TR><TD WIDTH="30%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">pour_cent</FONT></TD>
<TD WIDTH="38%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">NMS</FONT></TD>
<TD WIDTH="32%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">p u R s a~</FONT></TD>
</TR>
<TR><TD WIDTH="30%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">des</FONT></TD>
<TD WIDTH="38%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">PREPDES</FONT></TD>
<TD WIDTH="32%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">d e</FONT></TD>
</TR>
<TR><TD WIDTH="30%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">actions</FONT></TD>
<TD WIDTH="38%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">NFP</FONT></TD>
<TD WIDTH="32%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">z a k s j o~</FONT></TD>
</TR>
<TR><TD WIDTH="30%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">de</FONT></TD>
<TD WIDTH="38%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">PREPADE</FONT></TD>
<TD WIDTH="32%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">d @</FONT></TD>
</TR>
<TR><TD WIDTH="30%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">la</FONT></TD>
<TD WIDTH="38%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">DETFS</FONT></TD>
<TD WIDTH="32%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">l a</FONT></TD>
</TR>
<TR><TD WIDTH="30%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">COGETA</FONT></TD>
<TD WIDTH="38%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">MOTINC->SIGLE->SIGLE_LU</FONT></TD>
<TD WIDTH="32%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">k o Z e t a</FONT></TD>
</TR>
<TR><TD WIDTH="30%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">apartiennent</FONT></TD>
<TD WIDTH="38%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">MOTINC->V3P</FONT></TD>
<TD WIDTH="32%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">a p a R t j E n</FONT></TD>
</TR>
<TR><TD WIDTH="30%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">à</FONT></TD>
<TD WIDTH="38%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">PREPADE</FONT></TD>
<TD WIDTH="32%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">t a</FONT></TD>
</TR>
<TR><TD WIDTH="30%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">Paula</FONT></TD>
<TD WIDTH="38%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">PREN->Italien</FONT></TD>
<TD WIDTH="32%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">p o l a</FONT></TD>
</TR>
<TR><TD WIDTH="30%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">Fibonacci</FONT></TD>
<TD WIDTH="38%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">MOTINC->Italien</FONT></TD>
<TD WIDTH="32%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">f i b o n a t S i</FONT></TD>
</TR>
<TR><TD WIDTH="30%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY"></s></FONT></TD>
<TD WIDTH="38%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">ZTRM</FONT></TD>
<TD WIDTH="32%" VALIGN="TOP">
<FONT FACE="Courier New"><P ALIGN="JUSTIFY">##</FONT></TD>
</TR>
</TABLE>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY"> </P>
<B><FONT FACE="Helvetica-Bold"><P ALIGN="JUSTIFY"><A NAME="_Toc507586785"><A NAME="_Toc507586985">4. EXPLOITATION DES PHONÉTISATIONS</A></A></P>
</FONT><P ALIGN="JUSTIFY"></P>
</B><P ALIGN="JUSTIFY">Le module d'exploitation des phonétisations est directement dépendant de l'application visée. Jusqu'à maintenant, LIA_PHON a été utilisé dans trois contextes différents que nous allons présenter brièvement.</P>
<P ALIGN="JUSTIFY"> </P>
<B><FONT FACE="Arial"><P ALIGN="JUSTIFY"><A NAME="_Toc507586786"><A NAME="_Toc507586986">4.1. Obtention de lexiques phonétiques</A></A></P>
</FONT><P ALIGN="JUSTIFY"></P>
</B><P ALIGN="JUSTIFY">Les SRAP utilisent des lexiques contenant pour chaque entrée une ou plusieurs transcriptions phonétiques. Ces transcriptions correspondent aux prononciations les plus courantes d'une même entrée. Le nombre de variantes codées pour un seul mot est généralement réduit car chacune d'entre elle augmente l'espace de recherche de la reconnaissance.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Ainsi, la modélisation de nombreuses variantes dépendantes du débit ou d'accents régionaux, loin de provoquer un gain au niveau de la reconnaissance, dégrade sensiblement les résultats (Grennberg S. 1999). Le module de calcul de lexiques phonétiques intégré dans LIA_PHON a donc pour but de proposer une forme canonique de prononciation, en donnant les informations nécessaires au décodeur pour éventuellement adapter de manière dynamique les prononciations lors de la reconnaissance. Ces variantes potentielles intègrent le traitement des schwas et des consonnes latentes en fin de mot.</P>
<P ALIGN="JUSTIFY"> </P>
<B><FONT FACE="Arial"><P ALIGN="JUSTIFY"><A NAME="_Toc507586787"><A NAME="_Toc507586987">4.2. Phonétisation de textes pour l'alignement</A></A></P>
</FONT><P ALIGN="JUSTIFY"></P>
</B><P ALIGN="JUSTIFY">Dans la phase d'apprentissage des modèles acoustiques des SRAP, d'important corpus de parole étiquetés phonétiquement sont nécessaires. Le coût d'un étiquetage manuel étant prohibitif, c'est généralement automatiquement que ces alignements son/phonème sont produit.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">A cet effet, le décodeur utilise des modèles acoustiques rustiques et la transcription orthographique des phrases prononcées. Le rôle du phonétiseur consiste donc à calculer la transcription phonétique la plus proche possible des phrases prononcées pour permettre au décodeur d'effectuer un alignement de qualité.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">L'espace de recherche de la reconnaissance étant limité à la phrase effectivement prononcée, le phonétiseur a intérêt à produire de nombreuses variantes afin de s'adapter au mieux aux différents choix de prononciation effectués par le locuteur.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Cette génération de variantes prends en compte plusieurs niveaux :</P>
<P ALIGN="JUSTIFY"></P>
<UL>
<P ALIGN="JUSTIFY"><LI>Les noms propres sont phonétisés avec chacune des 8 bases de règles correspondantes aux différentes origines linguistiques ; toutes les chaînes phonétiques différentes sont considérées comme des variantes.</LI></P>
<P ALIGN="JUSTIFY"><LI>Des règles gérant les liaisons facultatives sont rajoutées dans la base. Les formes avec et sans liaisons (qu'elles soient facultatives ou obligatoires) sont conservées.</LI></P>
<P ALIGN="JUSTIFY"><LI>Les mots contenant des schwas produisent trois types de variantes :avec élision des schwas, en les conservant, en les transformant en /ø/.</LI></P>
<P ALIGN="JUSTIFY"><LI>Une base de règles au même format que les règles de phonétisation est appliquée pour déterminer l'insertion de schwas entre les mots d'une même phrase. Ces schwas sont alors traités de la même manière que ceux apparaissant à l'intérieur des mots.</LI></P>
<P ALIGN="JUSTIFY"><LI>Enfin, des variantes intégrant des silences sont insérés dans la transcription phonétique des phrases, en remplacement des signes de ponctuations et entre deux mots lorsqu'aucune liaison n'est réalisée.</LI></P></UL>
<B><P ALIGN="JUSTIFY"> </P>
<FONT FACE="Arial"><P ALIGN="JUSTIFY"><A NAME="_Toc507586788"><A NAME="_Toc507586988">4.3. Synthèse de parole à partir du texte</A></A></P>
</B></FONT><P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Les systèmes de synthèse de parole à partir du texte peuvent se décomposer en trois composantes fonctionnelles (d'Alessandro C. et al. 1996) :la phase d'analyse et de phonétisation ; la phase phonético-acoustique ; la phase de calcul du signal numérique. Nous nous sommes focalisé essentiellement sur la première composante, largement décrite dans ce document.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Néanmoins, dans un but de démonstration, LIA_PHON permet d'obtenir des transcriptions directement traitable par un synthétiseur de signal. La transcription phonétique devant être produite dans un système de synthèse de parole à partir du texte est un moyen terme entre, d'une part la phonétisation canonique présentée dans 4.1 et d'autre part les phonétisations avec variantes du paragraphe 4.2.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">En effet, un choix doit être fait au niveau de la gestion des liaisons, de la réalisation des schwas ou de la gestion des pauses pour proposer une transcription phonétique cohérente au niveau de la phrase et non plus seulement au niveau des mots. Il est bien évidemment que cette étape est intimement liée au synthétiseur de parole utilisé pour produire le signal.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Le système LIA_PHON intègre un module de génération de transcriptions phonétiques destinées à un synthétiseur de parole. Le synthétiseur choisi est MBROLA (Dutoit T. 1997). Ce module permet d'une part d'adapter les transcriptions phonétiques à la prononciation d'un texte et d'autre part de calculer des paramètres prosodiques rendant le texte audible.</P>
<P ALIGN="JUSTIFY"> </P>
<FONT FACE="Arial"><P ALIGN="JUSTIFY"><A NAME="_Toc507586789"><A NAME="_Toc507586989">4.3.1. Modification des transcriptions phonétiques</A></A></P>
</FONT><B><P ALIGN="JUSTIFY"></P>
</B><P ALIGN="JUSTIFY">Les règles utilisées pour produire la transcription phonétique finale envoyée au synthétiseur de parole sont les suivantes :</P>
<P ALIGN="JUSTIFY"></P>
<UL>
<P ALIGN="JUSTIFY"><LI>Seules les liaisons obligatoires et interdites sont traitées, toutes les liaisons facultatives sont omises.</LI></P>
<P ALIGN="JUSTIFY"><LI>Les schwas sont conservés dans la mesure où cette unité est présente dans la base des sons de MBROLA.</LI></P>
<P ALIGN="JUSTIFY"><LI>Les phénomènes de hiatus sont laissés à la charge du synthétiseur à travers le choix des segments de sons utilisés pour construire le signal.</LI></P>
<P ALIGN="JUSTIFY"><LI>Les consonnes doubles, à l'intersection de deux mots, sont séparées par un schwa.</LI></P>
<P ALIGN="JUSTIFY"><LI>Un schwa est également rajouté, entre deux mots, lorsque le mot précédent se termine par un groupe de deux consonnes génératrice (par exemple, occlusive et liquide) et que le mot suivant commence par une consonne quelconque.</LI></P>
<P ALIGN="JUSTIFY"><LI>Enfin, toutes les ponctuations sont remplacées par des pauses.</LI></P></UL>
<B><P ALIGN="JUSTIFY"> </P>
</B><FONT FACE="Arial"><P ALIGN="JUSTIFY"><A NAME="_Toc507586790"><A NAME="_Toc507586990">4.3.2. Paramètres prosodiques</A></A></P>
</FONT><B><P ALIGN="JUSTIFY"></P>
</B><P ALIGN="JUSTIFY">Le système LIA_PHON ne possède pas, pour le moment, de module de génération de courbe prosodique. Les paramètres envoyés à MBROLA ont juste pour but d'éviter que le signal ne soit généré avec une prosodie plate, peu agréable à écouter lors des tests. Ainsi, pour éviter ce phénomène, les phonèmes sont transmis à MBROLA avec des durées moyennes fonction du débit choisi, et la courbe d'intonation suit simplement la règle de déclinaison habituelle du français en rajoutant des variations aléatoires pour éviter un aspect trop mécanique lors de l'enchaînement des phrases.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY"> </P>
<B><FONT FACE="Helvetica-Bold"><P ALIGN="JUSTIFY"><A NAME="_Toc507586791"><A NAME="_Toc507586991">5. EVALUATION DU SYSTÈME</A></A></P>
</FONT><P ALIGN="JUSTIFY"></P>
</B><P ALIGN="JUSTIFY">LIA_PHON ne gérant pas la génération de paramètres prosodiques cohérents, il ne peut être évalué directement de manière perceptive. Par contre, les transcriptions phonétiques produites peuvent être comparées à des textes phonétisés par des experts, et ce de manière automatique en produisant des scores similaires à ceux utilisés en Reconnaissance Automatique de la Parole (nombre de phonèmes corrects, score de précision en comptant les élisions/substitutions/insertions, nombre de mots/phrases correctes).</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Ces résultats sont particulièrement intéressant quand ils permettent d'établir une typologie des erreurs faites par le système. Une telle étude a été réalisée dans le cadre de la campagne de tests des phonétiseurs du français organisée par l'AUF (ex Aupelf-Uref) et connue sous le nom d'Action de Recherche ConcertéeB3 (ARC B3). Cette campagne regroupait 8 laboratoires (4 français,2 suisses, 1 belge et 1 canadien), les tests se sont déroulés en 1997 et les résultats ont été publié dans (Yvon F. et al. 1998).Le corpus de tests utilisé est décrit dans le tableau 2.</P>
<P ALIGN="JUSTIFY"></P>
<TABLE BORDER CELLSPACING=1 CELLPADDING=4 WIDTH=651>
<TR><TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">Nb de mots </TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">total </TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">nom propre </TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">acronyme </TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">exp. chiffrée</TD>
</TR>
<TR><TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">occurrence </TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">26 000 </TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">1 500 </TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">200 </TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">600</TD>
</TR>
<TR><TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">forme </TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">6 000 </TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">1 000 </TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">90 </TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">200</TD>
</TR>
</TABLE>
<P ALIGN="JUSTIFY"></P>
<B><P ALIGN="CENTER">Table 2: </B>Description du corpus de test</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Les résultats du système LIA_PHON sont présentés dans les tableaux 3 et 4. Le premier tableau présente les résultats sur les phonèmes (correction et précision), les mots et les phrases. Le deuxième tableau détaille les résultats sur les mots en les classant en quatre types : nom propre, acronyme, expression chiffrée et autre. La première ligne donne les pourcentages de mots corrects, la deuxième ligne présente la part de chacune de ces classes dans le nombre total d'erreurs.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Ces résultats montrent que si les résultats globaux sont excellents (99% de précision), la répartition des erreurs n'est pas uniforme. Les ambiguïtés classiques de la langue française sont bien traités par le système : les homographes hétérophones ne représentent que 1,1% des erreurs et les ambiguïtés morphologiques seulement 0,3%. Par contre les principales sources d'erreurs proviennent de la présence de mots empruntés à d'autres langues (25,6% des erreurs pour seulement 5,8% des mots).</P>
<P ALIGN="JUSTIFY"></P>
<TABLE BORDER CELLSPACING=1 CELLPADDING=4 WIDTH=651>
<TR><TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">Nb phon % </TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">corr. % </TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">précision % </TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">mots corr. % </TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">phrases corr</TD>
</TR>
<TR><TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">86 938 </TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">99,3 </TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">99,0 </TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">97,5 </TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">76,0</TD>
</TR>
</TABLE>
<P ALIGN="JUSTIFY"></P>
<B><P ALIGN="CENTER">Table 3: </B>Résultats globaux de LIA_PHON</P>
<P ALIGN="CENTER"></P>
<P ALIGN="JUSTIFY"> </P>
<TABLE BORDER CELLSPACING=1 CELLPADDING=4 WIDTH=651>
<TR><TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">classe </TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">nom propre </TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">acronyme </TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">expr. chiffrée </TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">autre</TD>
</TR>
<TR><TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">%correct </TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">88,8 </TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">94,5 </TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">91,7 </TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">98,2</TD>
</TR>
<TR><TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">% des erreurs </TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">25,6 </TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">1,7 </TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">7,6 </TD>
<TD WIDTH="20%" VALIGN="TOP">
<P ALIGN="JUSTIFY">65,1</TD>
</TR>
</TABLE>
<P ALIGN="JUSTIFY"></P>
<B><P ALIGN="CENTER">Table 4: </B>Résultats par classe de mots et de noms propres</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY"> La détection et l'attribution d'une origine linguistique à un nom en fonction de sa morphologie et de son contexte semble donc être un élément crucial auquel notre module de traitement des noms propres ne répond qu'imparfaitement. L'étude manuelle des résultats nous a montré que la plupart des erreurs provenaient d'un manque de couverture dans les bases chargées de phonétiser les noms propres par origine linguistique. La grande variabilité de l'espace de prononciation des noms propres nécessite donc l'écriture de bases de règles plus importantes que celles développées dans le système à ce jour.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY"> </P>
<B><FONT FACE="Helvetica-Bold"><P ALIGN="JUSTIFY"><A NAME="_Toc507586792"><A NAME="_Toc507586992">CONCLUSION</A></A></P>
</FONT><P ALIGN="JUSTIFY"></P>
</B><P ALIGN="JUSTIFY">Cet article présente les nombreux modules développés au LIA afin de prendre en compte les problèmes liés à la phonétisation de corpus. Ces modules faisant partie de l'ensemble de outils linguistiques utilisés dans les diverses activités du laboratoire, un certain nombre d'entre eux ne sont pas spécifiques au processus de phonétisation. Ainsi, la phase de formatage et d'étiquetage de texte est une phase préalable à toute exploitation de corpus écrits.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Néanmoins, si le processus de phonétisation n'a pas été le seul moteur au développement de ces outils, il a été par contre un moyen de contrôle et d'évaluation indispensable. En effet, un mauvais étiquetage ou un formatage erroné des données provoquent le plus souvent des répercussions immédiates au niveau de la prononciation. En utilisant des corpus de tests tel que celui utilisé dans la campagne ARC B3, la synthèse de parole devient un outils de validation de méthodes de TALN particulièrement intéressant. En effet, les performances ne sont plus uniquement mesurées de manière quantitatives en se comparant à des corpus de référence, mais au contraire en fonction de leurs répercussions dans l'exécution d'une tâche précise non artificielle. Les résultats affichés par les systèmes de phonétisation laissent à penser que le problème est quasiment résolu.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Cependant, si les phénomènes globaux de la phonétisation sont bien appréhendés (99% de précision), beaucoup de travail reste à faire pour arriver à l'excellence (24% des phrases phonétisées par notre système comportent au moins une erreur).Ces erreurs se partagent entre des phénomènes connus (noms propres ou acronymes) et une multitude de problèmes locaux difficilement catégorisables (65% des erreurs). Ces derniers problèmes, certainement dû au manque de couverture de nos bases de règles, ne peuvent être traités que par une analyse minutieuse des corpus traités. Généraliser les cas les plus fréquents par des règles ou des méthodes d'apprentissage, coder les autres cas dans des listes d'exceptions, telles sont les tâches qu'il nous faut continuer à mener pour améliorer nos systèmes.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY">Une autre perspective de travail concerne le traitement des variantes de prononciation ayant des effets sur les chaînes phonétiques représentant les mots. Que ce soit dans le domaine de l'alignement phonétique pour l'apprentissage des SRAP ou pour la génération de parole en fonction de paramètres de débit ou de style de discours, limiter de manière automatique l'espace des variantes d'un mot et garantir une cohérence de variation sur la prononciation d'une ou plusieurs phrases sont encore des problèmes largement ouverts.</P>
<P ALIGN="JUSTIFY"></P>
<P ALIGN="JUSTIFY"> </P>
<B><FONT FACE="Helvetica-Bold"><P ALIGN="JUSTIFY"><A NAME="_Toc507586793"><A NAME="_Toc507586993">RÉFÉRENCES</A></A></P>
</FONT><P ALIGN="JUSTIFY"></P><DIR>
</B><P ALIGN="JUSTIFY">BÉCHET, Frédéric ; EL-BÈZE, Marc (1997) : "Automatic assignment of part-of-speech to out-of-vocabulary words for text-to-speech processing", in Proceedings of the European Conference on Speech Communication and Technology (Eurospeech), pp. 983–986, Rhodes, Greece.</P>
<P ALIGN="JUSTIFY">BÉCHET, Frédéric ; SPRIET, Thierry ; EL-BÈZE, Marc (1997) : "Traitement spécifique des noms propres dans un système de transcription graphème-phonème", in Actes des Journées Scientifiques et Techniques du Réseau Francil (JST'97), pp. 469–472, Avignon.</P>
<P ALIGN="JUSTIFY">BELRHALI, R. (1995) : Phonétisation automatique d'un lexique général du français : systématique et émergence linguistique, PhD thesis, Université Stendhal, Grenoble, France.</P>
<P ALIGN="JUSTIFY">BOULA DE MAREÜIL, Philippe (1994) : "Vers une phonémisation automatique des sigles", in Actes des XXèmes Journées d'Études sur la Parole, pp. 95–100, Lannion.</P>
<P ALIGN="JUSTIFY">BOULA DE MAREÜIL, Philippe (1997) : Etude linguistique appliquée à la synthèse de la parole à partir du texte, PhD thesis, Université Paris XI Orsay.</P>
<P ALIGN="JUSTIFY">CHANOD, Jean-Pierre ; TAPANAINEN, Pasi (1995) : "Tagging French - comparing a statistical and a constraint-based method", in Proceedings of the Seventh Conference of the European Chapter of the ACL (EACL'95),pp. 149–156, Dublin, Ireland.</P>
<P ALIGN="JUSTIFY">CHARNIAK, Eugene ; HENDRICKSON, Curtis ; JACOBSON, Neil ; PERKOWITZ, Mike (1993) : "Equations for part-of-speech tagging", in 11th National Conference on Artificial Intelligence, A. Press/MIT (eds.), pp. 784–789.</P>
<P ALIGN="JUSTIFY">D'ALESSANDRO, C. ; GARNIER-RIZET, M. ; DE MAREÜIL, P. Boula (1996) : "Synthèse de la parole à partir du texte", in Fondements et perspectives en traitement automatique de la parole, Éditions de l'Aupelf-Uref – Universités Francophones.</P>
<P ALIGN="JUSTIFY">DIETTERICH, T.G. ; HILD, H. ; BAKIRI, G. (1995) : "A comparison of id3 and backpropagation for english text-to-speech mapping", Machine Learning, vol. 18, n 1, pp. 51–80.</P>
<P ALIGN="JUSTIFY">DIVAY, Michel ; VITALE, Anthony J. (1997) : "Algorithm for grapheme-to-phoneme translation for French and English: Applications", Computational Linguistics, vol. 23, n 4, pp. 495–524.</P>
<P ALIGN="JUSTIFY">DUTOIT, Thierry (1997) : An Introduction to Text-to-Speech Synthesis,Dordrecht, NL, Kluwer Academic Publishers.</P>
<P ALIGN="JUSTIFY">EL-BÈZE, M. ; MÉRIALDO, B. ; ROZERON, B. ; DEROUAULT, A.M. (1994) : "Accentuation automatique de textes par des méthodes probabilistes", Technique et Sciences Informatiques, vol. 13, n 6, pp. 797–815.</P>
<P ALIGN="JUSTIFY">EL-BÈZE, M. (1990) : Choix d'unités appropriées et introduction de connaissances dans des modèles probabilistes pour la reconnaissance automatique de la parole, PhD thesis, Université Paris VII, Paris, France.</P>
<P ALIGN="JUSTIFY">GAUVAIN, J.L. ; LAMEL, L.F. ; ESKENAZI, M. (1991) : "Design considerations and text selection for BREF, a large French read-speech corpus", in Proceedings of the European Conference on Speech Communication and Technology (Eurospeech), Genova, Italy.</P>
<P ALIGN="JUSTIFY">GREFENSTETTE, Gregory ; TAPANAINEN, Pasi (1994) : "What is a word, what is a sentence? problems of tokenization", in Proceedings of The 3<SUP>rd</SUP> International Conference on Computational Lexicography COMPLEX'94, pp. 79–87, Budapest, Hongrie.</P>
<P ALIGN="JUSTIFY">GRENNBERG, Steven (1999) : "Speaking in shorthand - a syllable-centric perspective for understanding pronunciation variation", Speech Communication, n1769, pp. 158–176.</P>
<P ALIGN="JUSTIFY">GREVISSE, M. (1993) : Le bon usage, grammaire francaise, refondue par A. Goose, Paris, Duculot.</P>
<P ALIGN="JUSTIFY">HABERT, Benoit ; ADDA, Gilles ; ADDA-DECKER, Michelle ; DE MAREÜIL, Philippe. Boula ; FERRARI, Stéphane ; FERRET, Olivier ; ILLOUZ, Gabriel ; PAROUBEK, Patrick (1997) : "The need for tokenization evaluation", in Proceedings of the First International Conference on Language Resources and Evaluation (LREC), pp. 427–431, Granada.</P>
<P ALIGN="JUSTIFY">PARFITT, S. ; SHARMAN, R. (1991) : "A bi-directional model of english pronounciation", in Proceedings of the European Conference on Speech Communication and Technology (Eurospeech), pp. 801–804, Gênes.</P>
<P ALIGN="JUSTIFY">PÉRENNOU, G. (1988) : "Le projet BDLEX de base de données et de connaissances lexicales et phonologiques", in Premières Journées Nationales du GRECO-PRC Communication Homme-Machine,Paris.</P>
<P ALIGN="JUSTIFY">PLÉNAT, Marc (1994) : "Observations sur le mot minimal français", in De Natura Sonorum,B. Laks ; M. Plénat (ed.), pp. 144–172, Saint-Denis.</P>
<P ALIGN="JUSTIFY">PROUTS,B. (1980) : Contribution à la synthèse de la parole à partir de texte, transcription graphème-phonème en temps réel sur micro-processeur, PhD thesis, Université Paris Sud - Paris XI Orsay, Paris.</P>
<P ALIGN="JUSTIFY">SEJNOWSKI, T.J. ; ROSENBERG, C.R. (1987) : "Parrallel network that learn to pronounce english text", Complex System, vol. 1, pp. 145–168.</P>
<P ALIGN="JUSTIFY">SPRIET, Thierry ; EL-BÈZE, Marc (1995) : "Etiquetage probabiliste et contraintes syntaxiques", in TALN, Marseille.</P>
<P ALIGN="JUSTIFY">SPRIET, Thiérry ; BÉCHET, Frédéric ; EL-BÈZE, Marc ; DE LOUPY, Claude ; KHOURI, Liliane (1996) : "Traitement automatique des mots inconnus", in Actes de la conférence TALN'96, Marseille.</P>
<P ALIGN="JUSTIFY">TZOUKERMANN, Evelyne (1998) : "Text analysis for the BELL labs French Text-To-Speech system", in Proceedings of the International Conference on Spoken Langage Processing (ICSLP).</P>
<P ALIGN="JUSTIFY">YVON, François ; BOULA DE MAREÜIL, Philippe ; D'ALESSANDRO, Christophe ; AUBERGÉ, Véronique ; BAGEIN, Michel ; BAILLY, Gérard ; BÉCHET, Frédéric ; FOUKIA, Saliha ; GOLDMAN, Jean-Philippe ; KELLER, Eric ; O'SHAUGHNESSY, Douglas ; PAGEL, Vincent ; SANNIER, Frédérique ; VÉRONIS, Jean ; ZELLNER, Brigitte (1998) : "Objective evaluation of grapheme to phoneme conversion for text-to-speech synthesis in French", Computer Speech and Language,vol.12, n 4.</P>
<P ALIGN="JUSTIFY">YVON, François (1996) : Prononcer par analogie : motivations, formalisations et évaluations, PhD thesis, École Nationale Supérieure des Télécommunications Paris.</P></DIR>
</BODY>
</HTML>