Noam-Chomsky-Structures 5
Noam-Chomsky-Structures 5
Noam-Chomsky-Structures 5
5.1. Nous avons étudié deux modèles de structure du langage, un modèle théorique
de la communication dans lequel le langage est conçu comme un processus de
Markov, et qui correspond, en un sens, à la théorie linguistique minimale, et un
modèle syntagmatique basé sur l’analyse en constituants immédiats. Nous avons vu
que le premier était sûrement inadéquat, que le second était plus puissant que le
premier et n’offrait pas les mêmes inconvénients. Certes, il y a des langages (au sens
général) qui ne peuvent être décrits par le modèle syntagmatique, mais je ne sais pas si
l’on doit ou non considérer que l’anglais lui-même échappe absolument à une telle
analyse. Cependant je crois qu’il y a d’autres raisons pour rejeter le modèle
syntagmatique comme inadéquat aux objectifs de la description linguistique.
La preuve la plus décisive de l’inadéquation d’une théorie linguistique consiste à
montrer qu’elle ne peut absolument pas s’appliquer à une langue naturelle. Une preuve
plus faible, mais parfaitement suffisante, de son inadéquation, serait de montrer que la
théorie ne s’applique qu’avec lourdeur, c’est-à-dire que toute grammaire construite
selon cette théorie est fort complexe, forgée ad hoc, et non révélatrice, que certains
procédés très simples de description des phrases grammaticales ne peuvent
s’accommoder des formes de la grammaire qui leur correspondent, et que certaines
propriétés formelles fondamentales des langues naturelles ne peuvent être utilisées
pour simplifier les grammaires. Nous allons rassembler un faisceau de présomptions
de cet ordre nous permettant d’affirmer que la forme de grammaire décrite plus haut et
la conception de la théorie linguistique qui lui est sous-jacente, sont fondamentalement
inadéquates.
La seule façon de tester l’adéquation de notre appareil est d’essayer de l’appliquer
directement à la description des phrases anglaises. Dès que nous considérons une
phrase un peu complexe et, en particulier, lorsque nous tentons de définir un ordre
entre les règles qui produisent ces phrases, nous nous heurtons à de nombreuses
difficultés. Étayer cette assertion demanderait beaucoup de place et d’efforts et ici je
ne puis qu’affirmer que cela est démontrable de manière très convaincante(26). Au lieu
de me lancer dans cette entreprise ardue et ambitieuse, je me bornerai à esquisser
quelques cas simples où des progrès considérables peuvent être réalisés sur les
grammaires de la forme (Σ, F). Au § 8, je proposerai une méthode indépendante
permettant de démontrer que l’analyse en constituants immédiats est inadéquate pour
la description de la structure des phrases anglaises.
5.2. Un des processus de formation de nouvelles phrases les plus productifs est
celui de la coordination. Si nous avons deux phrases Z + X + W et Z + Y + W, et si X
et Y sont réellement des constituants de ces phrases, on peut en général former une
nouvelle phrase Z – X + and + Y – W. Par exemple, à partir de (20 a – b), on peut
former (21).
(20) (a) the scene — of the movie — was in Chicago.
(b) the scene — of the play — was in Chicago.
(21) the scene — of the movie and of the play — was in Chicago(27).
En revanche, si X et Y ne sont pas des constituants, nous ne pouvons pas procéder
ainsi(28). Par exemple, on ne peut former (23) à partir de (22 a – b).
(22) (a) the — liner sailed down the — river.
(b) the — tugboat chugged up the — river.
the — liner sailed down and the tugboat chugged up the —
(23)
river(29).
De même, si X et Y sont des constituants, mais des constituants d’un type différent
(c’est-à-dire si dans le diagramme (15) ils ont chacun une seule origine, mais que ces
origines sont étiquetées différemment), nous ne pouvons pas en général former une
nouvelle phrase par coordination. Par exemple, nous ne pouvons former (25) à partir
de (24a – b).
(24) (a) the scene — of the movie — was in Chicago.
(b) the scene — that I wrote — was in Chicago.
(25) the scene — of the movie and that I wrote — was in Chicago(30).
En fait, la possibilité de réaliser la coordination est l’un des meilleurs critères pour
la détermination initiale de la structure syntagmatique. Nous pouvons simplifier la
description de la coordination en essayant d’établir les constituants de telle manière
que la règle suivante soit vérifiée :
Si S1 et S2 sont des phrases grammaticales et que S1 diffère de S2 seulement
par la présence de X en S1 là où Y apparaît en S2 (c’est-à-dire si S1 = ..X.. et
(26) S2 = ..Y..) et que X et sont des constituants du même type dans S1 et S2
respectivement, alors S3, qui résulte du remplacement de X par X + et + Y
dans S1 (i. e., S3 = ..X + et + Y..), est une phrase grammaticale.
Bien qu’il faille ajouter ici quelques restrictions, la grammaire se trouve
considérablement simplifiée si nous posons les constituants de telle façon que (26) soit
vérifiée, même approximativement. Autrement dit, il est plus facile de fixer la
distribution des « et » par des restrictions jointes à cette règle que de les fixer
directement sans énoncer une telle règle. Mais nous rencontrons alors la difficulté
suivante : nous ne pouvons intégrer la règle (26), ou une autre de même nature, dans
une grammaire syntagmatique (Σ, F), en raison d’un certain nombre de limitations
fondamentales inhérentes à ces grammaires. La caractéristique essentielle d’une règle
comme (26) est qu’elle exige, pour être appliquée à S1 et S2 afin de former S3, que
nous connaissions non seulement la forme effectivement donnée de S1 et de S2, mais
aussi leur structure de constituants – nous devons connaître non seulement la forme
finale de ces phrases, mais aussi leur « histoire dérivationnelle ». Or, chaque règle
X → Y de la grammaire (Σ, F) s’applique, ou ne s’applique pas, à une séquence donnée
en fonction seulement du contenu effectivement donné de cette séquence. La question
de savoir comment cette séquence s’est progressivement formée est non pertinente. Si
la séquence contient X comme sous-séquence, la règle X → Y peut lui être appliquée ;
dans le cas contraire, elle ne le peut pas.
Nous pouvons aboutir aux mêmes conclusions par des voies différentes. La
grammaire (Σ, F) peut aussi bien être considérée comme un processus très élémentaire
qui n’engendre pas les phrases de « gauche à droite », mais de « haut en bas ».
Supposons que nous ayons la grammaire syntagmatique suivante :
(27) Σ: Phrase
F: X1 → Y1
:
Xn → Yn
Nous pouvons alors nous représenter cette grammaire comme une machine à
nombre fini d’états internes, comprenant un état initial et un état final. À l’état initial,
elle ne peut produire que l’élément « phrase », ce qui la fait passer à un nouvel état.
Elle peut dès lors produire une séquence quelconque Yi, telle que « Phrase → Yi » soit
une des règles F de (27), et de là passer à un nouvel état. Supposons que Yi soit la
séquence .. Xj,… ; alors, la machine peut produire la séquence … Yj… en
« appliquant » la règle Xj → Yj. La machine procède de la sorte, d’état en état, jusqu’à
la production d’une séquence terminale ; elle est alors à l’état final. La machine
produit ainsi des dérivations, au sens du § 4. Le point important à noter est que chaque
état de la machine est entièrement déterminé par la séquence précédente (c’est-à-dire
la dernière étape de la dérivation). Plus spécifiquement, un état est déterminé par le
sous-ensemble d’éléments Xi de F qui figurent « à gauche de la flèche » et qui sont
contenus dans la dernière séquence produite. Mais la règle (26) exige, elle, une
machine plus puissante, capable de « regarder en arrière » vers les étapes antérieures
de la dérivation, afin de déterminer la production de l’étape suivante de cette
dérivation.
La règle (26) est aussi fondamentalement nouvelle dans un autre sens. Elle se réfère
essentiellement à deux phrases distinctes S1 et S2 ; or, dans les grammaires du type (Σ,
F) il est impossible d’inclure cette double référence. Le fait qu’une règle comme (26)
ne puisse être intégrée à une grammaire syntagmatique indique que cette forme de
grammaire, même si elle n’est pas absolument inapplicable à l’anglais, est
certainement inadéquate, au sens plus faible, mais suffisant, que nous avons donné
plus haut à ce terme. Cette règle conduit à une simplification considérable de la
grammaire : en fait, elle fournit l’un des meilleurs critères pour définir les
constituants. Nous verrons qu’il y a de nombreuses autres règles générales du même
type que (26) et qui jouent le même double rôle.
5.3. Dans la grammaire (13), nous n’avons envisagé qu’une seule façon d’analyser
l’élément Verbe, en l’occurrence hit (cf. 13 VI). Mais, même quand on fixe le radical
(disons : take), il y a beaucoup d’autres formes que cet élément peut prendre : takes,
has + taken, will + take, has + been + taken, is + being + taken, etc. L’étude de ces
« verbes auxiliaires » se révèle être décisive dans le développement de la grammaire
anglaise. Nous verrons que leur comportement est très régulier et peut être décrit de
manière simple si on les considère d’un point de vue totalement différent de celui qui a
été le nôtre ci-dessus, alors que ce comportement apparaît fort complexe si nous
voulons intégrer ces syntagmes directement à une grammaire (Σ, F).
Considérons d’abord les auxiliaires non accentués ; par exemple « has » dans
« John has read the book », mais non pas « does » dans « John does read books(31) ».
Nous pouvons établir l’occurrence de ces auxiliaires dans les phrases déclaratives en
ajoutant à la grammaire (13) les règles suivantes :
(28) (I) Verbe → Aux + V
(II) V → hit, take, walk, read, etc.
(III) Aux → C (M) (have + en) (be + ing) (be + en)
(IV) M → will, can, may, shall, must
Par exemple si John – C – admire – sincerity est une phrase, alors sincerity –
C + be + en – admire – by + John (qui par application de (29) et de (19) devient
« sincerity is admired by John ») est aussi une phrase.
Nous pouvons à présent enlever à (28 III) l’élément be + en et toutes les restrictions
spéciales qui lui sont attachées. Que be + en exige un verbe transitif, qu’il ne puisse
apparaître avant V + SN, qu’il doive apparaître avant V + by + SN (où V est transitif),
qu’il inverse l’ordre des syntagmes nominaux qui l’entourent, ce ne sont là que des
conséquences automatiques de la règle (34). Cette règle amène donc une
simplification appréciable de la grammaire. Mais (34) dépasse largement le cadre des
grammaires (Σ, F). Comme (29 II), elle exige une référence à la structure en
constituants de la séquence à laquelle elle s’applique et elle opère sur cette séquence
une inversion structurellement déterminée.
5.5. Nous avons étudié trois règles (26), (29), (34) qui simplifient sensiblement la
description de l’anglais, mais qui ne peuvent être intégrées à une grammaire (Σ, F). Il
en existe bien d’autres de ce type et nous en étudierons quelques-unes. Une étude plus
approfondie des limites des grammaires syntagmatiques relatives à l’anglais nous
permettra de montrer d’une manière convaincante que ces grammaires sont si
désespérément complexes qu’elles n’offriraient aucun intérêt si on n’y incorporait de
telles règles.
Si, cependant, nous examinons soigneusement les implications de ces règles
supplémentaires, nous constatons qu’elles conduisent à une conception entièrement
nouvelle de la structure linguistique. Nous appellerons chacune de ces règles une
« transformation grammaticale ». Une transformation grammaticale T opère sur une
séquence donnée (ou comme dans le cas de (26) sur un ensemble de séquences)
possédant une structure syntagmatique donnée, et la convertit en une nouvelle
séquence ayant une nouvelle structure syntagmatique dérivée. Montrer exactement
comment cette opération s’effectue exigerait une étude assez approfondie qui irait bien
au-delà du cadre de ces quelques remarques ; ce que nous pouvons en fait, c’est
élaborer une certaine algèbre des transformations, relativement complexe mais assez
naturelle, ayant les propriétés que, semble-t-il, nous requérons pour la description
grammaticale(39).
A partir des quelques exemples étudiés, nous pouvons déjà déceler quelques-unes
des propriétés essentielles des grammaires transformationnelles. Ainsi, il est clair qu’il
faut définir un ordre d’application de ces transformations. Par exemple, la
transformation passive (34) doit s’appliquer avant (28). Elle doit notamment précéder
(29 I) de telle façon que l’élément verbal ait, dans la phrase résultante, le même
nombre que le nouveau sujet grammatical de la phrase passive. Et elle doit précéder
(29 II) afin que cette dernière règle s’applique correctement au nouvel élément be + en
inséré. (Discutant le point de savoir si (29 I) peut ou non prendre place dans une
grammaire (Σ, F), nous avons mentionné qu’on ne saurait exiger de cette règle qu’elle
s’applique avant la règle développant SNsing en the + man, etc. Une raison pour cela
est maintenant évidente : (29 I) doit s’appliquer après (34), mais (34) doit s’appliquer
après l’analyse de SNsing, sans quoi nous n’aurons pas les relations de sélection
correctes entre le sujet et le verbe et entre le verbe et l’« agent » dans le passif.)
Deuxièmement, notons que certaines transformations sont obligatoires, alors que
d’autres sont facultatives. Par exemple (29) doit s’appliquer à toute dérivation, faute
de quoi on n’obtiendrait pas une phrase(40). Mais (34), la transformation passive, peut
ou non s’appliquer à chaque cas particulier. Dans les deux hypothèses, on obtient une
phrase. Partant, (29) est une transformation obligatoire et (34) est une transformation
facultative.
Cette distinction entre transformations facultatives et transformations obligatoires
nous conduit à établir une distinction fondamentale parmi les phrases de la langue.
Supposons que nous ayons une grammaire G comprenant une partie syntagmatique (Σ,
F) et une partie transformationnelle, et supposons que la partie transformationnelle
comprenne des transformations obligatoires et des transformations facultatives. Nous
définirons alors comme le noyau de la langue (dans les termes de la grammaire G)
l’ensemble des phrases produites par application des transformations obligatoires aux
séquences terminales de la grammaire syntagmatique. La partie transformationnelle de
la grammaire sera établie de telle manière que les transformations puissent s’appliquer
aux phrases-noyaux (plus exactement aux formes sous-jacentes des phrases noyaux,
c’est-à-dire aux séquences terminales de la partie syntagmatique de la grammaire) ou à
des phrases antérieurement transformées. Ainsi, toute phrase de la langue sera soit une
phrase noyau, soit une phrase dérivée des séquences sous-jacentes à une ou plusieurs
phrases noyaux, par une ou plusieurs transformations successives.
Ces considérations nous conduisent à nous représenter les grammaires comme
possédant une organisation naturelle tripartite. La grammaire possède, correspondant
au niveau syntagmatique, une suite de règles de la forme X → Y et, correspondant aux
niveaux inférieurs, une suite de règles morphophonologiques ayant la même forme de
base. Reliant ces deux suites, la grammaire a une suite de règles transformationnelles.
Ainsi la grammaire ressemblera-t-elle à quelque chose comme ceci :
(35) Σ Phrase
F X1 → Y1
: Structure syntagmatique
Xn → Yn
Ti
: Structure transformationnelle
Tj
Z1 → W1
: Morphophonologie
Zm → Wm
Pour produire une phrase à partir de cette grammaire, nous construisons une
dérivation élargie commençant par Phrase. En passant par les règles F, nous
construisons une séquence terminale qui sera une suite de morphèmes, pas
nécessairement dans l’ordre correct. Nous passons alors par la suite de transformations
Ti, … Tj appliquant celles qui sont obligatoires et, peut-être, certaines de celles qui
sont facultatives. Ces transformations peuvent réordonner les séquences, ajouter ou
effacer des morphèmes. Elles ont pour résultat la production d’une séquence de mots.
Nous passons alors par les règles morphophonologiques, qui convertissent cette
séquence de mots en une séquence de phonèmes. La partie syntagmatique de la
grammaire comprendra des règles telles que (13), (17) et (28). La partie
transformationnelle comprendra des règles telles que (26), (29) et (34), formulées
correctement dans les termes qui doivent être développés en une théorie achevée des
transformations. La partie morphophonologique comprendra des règles comme (19).
Cette esquisse du mécanisme de génération des phrases doit (et peut aisément) être
généralisée pour permettre le fonctionnement correct de règles telles que (26), qui
opèrent sur un ensemble de phrases, et pour permettre aux transformations de
s’appliquer une deuxième fois à des séquences déjà transformées, afin que des phrases
de plus en plus complexes puissent être produites.
Lorsque, pour engendrer une phrase donnée, nous n’appliquons que les
transformations obligatoires, nous obtenons ce que nous appelions une phrase-noyau.
Une recherche plus approfondie montrerait que dans les parties syntagmatiques et
morphophonologiques de la grammaire nous pouvons aussi dégager une armature de
règles obligatoires qui doivent être appliquées toutes les fois que nous les rencontrons
dans le processus de génération d’une phrase. Dans les derniers alinéas du § 4, nous
avons indiqué que les règles syntagmatiques conduisaient à une conception de la
structure linguistique et du « niveau de représentation » fondamentalement différente
de celle fournie par les règles morphophonologiques. A chacun des niveaux inférieurs,
correspondant au tiers inférieur de la grammaire, un énoncé est en général représenté
par une seule suite d’éléments. Mais la structure syntagmatique ne peut être divisée en
sous-niveaux : au niveau syntagmatique, un énoncé est représenté par un ensemble de
séquences qui ne peuvent être ordonnées en niveau inférieur ou supérieur. Cet
ensemble de séquences qui représentent l’énoncé est équivalent à un diagramme de la
forme (15). Au niveau transformationnel, un énoncé est représenté encore plus
abstraitement par une suite de transformations du fait desquelles il est dérivé, en
dernier lieu, à partir des phrases noyaux (plus exactement, à partir des séquences sous-
jacentes aux phrases noyaux). Il y a une définition générale très naturelle du « niveau
linguistique » qui recouvre chacun de ces cas(41) et, comme nous le verrons plus loin,
il y a de bonnes raisons de considérer chacune de ces structures comme un niveau
linguistique.
Une fois l’analyse transformationnelle correctement formulée, nous constatons
qu’elle est fondamentalement plus puissante que le modèle syntagmatique, tout
comme ce dernier est plus puissant que le modèle markovien à états finis qui engendre
les phrases de gauche à droite. En particulier, des langues telles que (10 III), qui
n’entrent pas dans le cadre de la description syntagmatique dont les règles sont
indépendantes du contexte, peuvent être dérivées par le modèle transformationnel(42).
Il est important de constater que la grammaire est sensiblement simplifiée par
l’addition du niveau transformationnel, puisque seules alors les phrases noyaux
doivent recevoir directement la structure syntagmatique – les séquences terminales de
la grammaire syntagmatique sont simplement celles qui sont sous-jacentes aux phrases
noyaux. Nous choisissons les phrases noyaux de telle façon que les séquences
terminales sous-jacentes au noyau soient aisément dérivées au moyen d’une
description syntagmatique, alors que toutes les autres phrases peuvent être dérivées de
ces séquences terminales par des transformations aisément énonçables. Nous avons vu
et reverrons plus loin, plusieurs exemples de simplification résultant de l’analyse
transformationnelle. Une étude syntaxique complète de l’anglais en fournit beaucoup
d’autres.
Un point encore, relatif aux grammaires du type (35), mérite qu’on s’y arrête,
puisqu’il a apparemment conduit à quelque confusion. Nous avons décrit ces
grammaires comme des mécanismes de génération des phrases. Cette formulation a pu
occasionnellement conduire à l’idée qu’il y avait une certaine asymétrie dans la
théorie grammaticale, en ce sens que la grammaire prendrait le point de vue du
locuteur plutôt que celui de l’auditeur ; qu’elle s’attacherait au processus de
production des énoncés plutôt qu’au processus inverse d’analyse et de reconstruction
de la structure d’énoncés donnés. En réalité, des grammaires telles que celles que nous
avons étudiées sont tout à fait « neutres » entre le locuteur et l’auditeur, la synthèse et
l’analyse des énoncés. Une grammaire ne nous dit pas comment synthétiser un énoncé
spécifique, ni comment l’analyser. En fait, ces deux tâches que le locuteur et l’auditeur
doivent réaliser sont fondamentalement les mêmes et sortent toutes deux du champ des
grammaires du type (35). Toute grammaire de ce type est simplement une description
d’un certain ensemble d’énoncés, à savoir ceux qu’elle engendre. A partir de cette
grammaire, nous pouvons reconstruire les relations formelles qui existent entre ces
énoncés à l’aide des notions de structure syntagmatique, de structure
transformationnelle, etc… Peut-être cette question sera-t-elle éclairée par une analogie
avec une partie de la théorie chimique relative aux composés structurellement
possibles. On peut dire que cette théorie engendre tous les composés physiquement
possibles, comme une grammaire engendre tous les énoncés grammaticalement
« possibles ». Elle servirait de base théorique pour les techniques d’analyse et de
synthèse qualitative de composés spécifiques, exactement comme une grammaire peut
servir dans la recherche de problèmes aussi spéciaux que l’analyse et la synthèse
d’énoncés particuliers.