Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                
100% found this document useful (1 vote)
12 views

Applied Natural Language Processing with Python: Implementing Machine Learning and Deep Learning Algorithms for Natural Language Processing 1st Edition Taweh Beysolow Ii - Own the ebook now and start reading instantly

The document provides an overview of various ebooks available for download on natural language processing (NLP) and machine learning, highlighting titles by different authors. It includes links to specific books such as 'Applied Natural Language Processing with Python' by Taweh Beysolow II and others, emphasizing the use of Python and deep learning techniques. Additionally, it mentions the author's background and the structure of the content covered in the books, including topics like working with raw text, deep learning models, and NLP applications.

Uploaded by

bamfoarabas
Copyright
© © All Rights Reserved
Available Formats
Download as PDF, TXT or read online on Scribd
100% found this document useful (1 vote)
12 views

Applied Natural Language Processing with Python: Implementing Machine Learning and Deep Learning Algorithms for Natural Language Processing 1st Edition Taweh Beysolow Ii - Own the ebook now and start reading instantly

The document provides an overview of various ebooks available for download on natural language processing (NLP) and machine learning, highlighting titles by different authors. It includes links to specific books such as 'Applied Natural Language Processing with Python' by Taweh Beysolow II and others, emphasizing the use of Python and deep learning techniques. Additionally, it mentions the author's background and the structure of the content covered in the books, including topics like working with raw text, deep learning models, and NLP applications.

Uploaded by

bamfoarabas
Copyright
© © All Rights Reserved
Available Formats
Download as PDF, TXT or read online on Scribd
You are on page 1/ 57

Explore the full ebook collection and download it now at textbookfull.

com

Applied Natural Language Processing with Python:


Implementing Machine Learning and Deep Learning
Algorithms for Natural Language Processing 1st
Edition Taweh Beysolow Ii
https://textbookfull.com/product/applied-natural-language-
processing-with-python-implementing-machine-learning-and-
deep-learning-algorithms-for-natural-language-
processing-1st-edition-taweh-beysolow-ii/

OR CLICK HERE

DOWLOAD EBOOK

Browse and Get More Ebook Downloads Instantly at https://textbookfull.com


Click here to visit textbookfull.com and download textbook now
Your digital treasures (PDF, ePub, MOBI) await
Download instantly and pick your perfect format...

Read anywhere, anytime, on any device!

Python Natural Language Processing Advanced machine


learning and deep learning techniques for natural language
processing 1st Edition Jalaj Thanaki
https://textbookfull.com/product/python-natural-language-processing-
advanced-machine-learning-and-deep-learning-techniques-for-natural-
language-processing-1st-edition-jalaj-thanaki/
textbookfull.com

Deep Learning for Natural Language Processing Develop Deep


Learning Models for Natural Language in Python Jason
Brownlee
https://textbookfull.com/product/deep-learning-for-natural-language-
processing-develop-deep-learning-models-for-natural-language-in-
python-jason-brownlee/
textbookfull.com

Deep learning in natural language processing Deng

https://textbookfull.com/product/deep-learning-in-natural-language-
processing-deng/

textbookfull.com

Deep Learning for Natural Language Processing (MEAP V07)


Stephan Raaijmakers

https://textbookfull.com/product/deep-learning-for-natural-language-
processing-meap-v07-stephan-raaijmakers/

textbookfull.com
Deep Learning in Natural Language Processing 1st Edition
Li Deng

https://textbookfull.com/product/deep-learning-in-natural-language-
processing-1st-edition-li-deng/

textbookfull.com

Natural language processing with TensorFlow Teach language


to machines using Python s deep learning library 1st
Edition Thushan Ganegedara
https://textbookfull.com/product/natural-language-processing-with-
tensorflow-teach-language-to-machines-using-python-s-deep-learning-
library-1st-edition-thushan-ganegedara/
textbookfull.com

Machine Learning with PySpark: With Natural Language


Processing and Recommender Systems 1st Edition Pramod
Singh
https://textbookfull.com/product/machine-learning-with-pyspark-with-
natural-language-processing-and-recommender-systems-1st-edition-
pramod-singh/
textbookfull.com

Natural Language Processing with Python Cookbook 1st


Edition Krishna Bhavsar

https://textbookfull.com/product/natural-language-processing-with-
python-cookbook-1st-edition-krishna-bhavsar/

textbookfull.com

Introduction to Deep Learning Using R: A Step-by-Step


Guide to Learning and Implementing Deep Learning Models
Using R Taweh Beysolow Ii
https://textbookfull.com/product/introduction-to-deep-learning-using-
r-a-step-by-step-guide-to-learning-and-implementing-deep-learning-
models-using-r-taweh-beysolow-ii/
textbookfull.com
Applied Natural
Language Processing
with Python
Implementing Machine Learning
and Deep Learning Algorithms for
Natural Language Processing

Taweh Beysolow II
Applied Natural
Language Processing
with Python
Implementing Machine
Learning and Deep Learning
Algorithms for Natural
Language Processing

Taweh Beysolow II
Applied Natural Language Processing with Python
Taweh Beysolow II
San Francisco, California, USA

ISBN-13 (pbk): 978-1-4842-3732-8     ISBN-13 (electronic): 978-1-4842-3733-5


https://doi.org/10.1007/978-1-4842-3733-5
Library of Congress Control Number: 2018956300
Copyright © 2018 by Taweh Beysolow II
This work is subject to copyright. All rights are reserved by the Publisher, whether the whole or
part of the material is concerned, specifically the rights of translation, reprinting, reuse of
illustrations, recitation, broadcasting, reproduction on microfilms or in any other physical way,
and transmission or information storage and retrieval, electronic adaptation, computer software,
or by similar or dissimilar methodology now known or hereafter developed.
Trademarked names, logos, and images may appear in this book. Rather than use a trademark
symbol with every occurrence of a trademarked name, logo, or image we use the names, logos,
and images only in an editorial fashion and to the benefit of the trademark owner, with no
intention of infringement of the trademark.
The use in this publication of trade names, trademarks, service marks, and similar terms, even if
they are not identified as such, is not to be taken as an expression of opinion as to whether or not
they are subject to proprietary rights.
While the advice and information in this book are believed to be true and accurate at the date of
publication, neither the authors nor the editors nor the publisher can accept any legal
responsibility for any errors or omissions that may be made. The publisher makes no warranty,
express or implied, with respect to the material contained herein.
Managing Director, Apress Media LLC: Welmoed Spahr
Acquisitions Editor: Celestin Suresh John
Development Editor: Siddhi Chavan
Coordinating Editor: Divya Modi
Cover designed by eStudioCalamar
Cover image designed by Freepik (www.freepik.com)
Distributed to the book trade worldwide by Springer Science+Business Media New York,
233 Spring Street, 6th Floor, New York, NY 10013. Phone 1-800-SPRINGER, fax (201) 348-4505,
e-mail orders-ny@springer-sbm.com, or visit www.springeronline.com. Apress Media, LLC is a
California LLC and the sole member (owner) is Springer Science + Business Media Finance Inc
(SSBM Finance Inc). SSBM Finance Inc is a Delaware corporation.
For information on translations, please e-mail rights@apress.com, or visit http://www.apress.
com/rights-permissions.
Apress titles may be purchased in bulk for academic, corporate, or promotional use. eBook
versions and licenses are also available for most titles. For more information, reference our Print
and eBook Bulk Sales web page at http://www.apress.com/bulk-sales.
Any source code or other supplementary material referenced by the author in this book is
available to readers on GitHub via the book’s product page, located at www.apress.com/
978-1-4842-3732-8. For more detailed information, please visit http://www.apress.com/
source-code.
Printed on acid-free paper
To my family, friends, and colleagues for their continued
support and encouragement to do more with myself than
I often can conceive of doing
Table of Contents
About the Author���������������������������������������������������������������������������������ix

About the Technical Reviewer�������������������������������������������������������������xi


Acknowledgments�����������������������������������������������������������������������������xiii
Introduction����������������������������������������������������������������������������������������xv

Chapter 1: What Is Natural Language Processing?������������������������������1


The History of Natural Language Processing��������������������������������������������������������2
A Review of Machine Learning and Deep Learning����������������������������������������������4
NLP, Machine Learning, and Deep Learning Packages with Python����������������4
Applications of Deep Learning to NLP�����������������������������������������������������������10
Summary������������������������������������������������������������������������������������������������������������12

Chapter 2: Review of Deep Learning��������������������������������������������������13


Multilayer Perceptrons and Recurrent Neural Networks������������������������������������13
Toy Example 1: Modeling Stock Returns with the MLP Model�����������������������15
Vanishing Gradients and Why ReLU Helps to Prevent Them��������������������������27
Loss Functions and Backpropagation������������������������������������������������������������29
Recurrent Neural Networks and Long Short-Term Memory��������������������������30
Toy Example 2: Modeling Stock Returns with the RNN Model�����������������������32
Toy Example 3: Modeling Stock Returns with the LSTM Model���������������������40
Summary������������������������������������������������������������������������������������������������������������41

v
Table of Contents

Chapter 3: Working with Raw Text����������������������������������������������������43


Tokenization and Stop Words������������������������������������������������������������������������������44
The Bag-of-Words Model (BoW)��������������������������������������������������������������������������50
CountVectorizer���������������������������������������������������������������������������������������������51
Example Problem 1: Spam Detection������������������������������������������������������������53
Term Frequency Inverse Document Frequency���������������������������������������������57
Example Problem 2: Classifying Movie Reviews�������������������������������������������62
Summary������������������������������������������������������������������������������������������������������������74

Chapter 4: Topic Modeling and Word Embeddings����������������������������77


Topic Model and Latent Dirichlet Allocation (LDA)����������������������������������������������77
Topic Modeling with LDA on Movie Review Data�������������������������������������������81
Non-Negative Matrix Factorization (NMF)�����������������������������������������������������������86
Word2Vec������������������������������������������������������������������������������������������������������������90
Example Problem 4.2: Training a Word Embedding (Skip-Gram)�������������������94
Continuous Bag-of-Words (CBoW)��������������������������������������������������������������������103
Example Problem 4.2: Training a Word Embedding (CBoW)�������������������������105
Global Vectors for Word Representation (GloVe)�����������������������������������������������106
Example Problem 4.4: Using Trained Word Embeddings with LSTMs����������111
Paragraph2Vec: Distributed Memory of Paragraph Vectors (PV-DM)����������������115
Example Problem 4.5: Paragraph2Vec Example with Movie
Review Data������������������������������������������������������������������������������������������������116
Summary����������������������������������������������������������������������������������������������������������118

Chapter 5: Text Generation, Machine Translation, and Other


Recurrent Language Modeling Tasks������������������������������121
Text Generation with LSTMs�����������������������������������������������������������������������������122
Bidirectional RNNs (BRNN)��������������������������������������������������������������������������126

vi
Table of Contents

Creating a Name Entity Recognition Tagger������������������������������������������������������128


Sequence-to-Sequence Models (Seq2Seq)������������������������������������������������������133
Question and Answer with Neural Network Models������������������������������������������134
Summary����������������������������������������������������������������������������������������������������������141
Conclusion and Final Statements���������������������������������������������������������������������142

Index�������������������������������������������������������������������������������������������������145

vii
About the Author
Taweh Beysolow II is a data scientist and
author currently based in San Francisco,
California. He has a bachelor’s degree in
economics from St. Johns University and a
master’s degree in applied statistics from
Fordham University. His professional
experience has included working at Booz
Allen Hamilton, as a consultant and in various
startups as a data scientist, specifically
focusing on machine learning. He has applied machine learning to federal
consulting, financial services, and agricultural sectors.

ix
About the Technical Reviewer
Santanu Pattanayak currently works at GE
Digital as a staff data scientist and is the author
of the deep learning book Pro Deep Learning
with TensorFlow: A Mathematical Approach
to Advanced Artificial Intelligence in Python
(Apress, 2017). He has more than eight years of
experience in the data analytics/data science
field and a background in development and
database technologies. Prior to joining GE,
Santanu worked at companies such as RBS,
Capgemini, and IBM. He graduated with a degree in electrical engineering
from Jadavpur University, Kolkata, and is an avid math enthusiast. Santanu
is currently pursuing a master’s degree in data science from the Indian
Institute of Technology (IIT), Hyderabad. He also devotes his time to data
science hackathons and Kaggle competitions, where he ranks within the
top 500 across the globe. Santanu was born and brought up in West Bengal,
India, and currently resides in Bangalore, India, with his wife.

xi
Acknowledgments
A special thanks to Santanu Pattanayak, Divya Modi, Celestin Suresh
John, and everyone at Apress for the wonderful experience. It has been a
pleasure to work with you all on this text. I couldn’t have asked for a better
team.

xiii
Introduction
Thank you for choosing Applied Natural Language Processing with Python
for your journey into natural language processing (NLP). Readers should
be aware that this text should not be considered a comprehensive study
of machine learning, deep learning, or computer programming. As such,
it is assumed that you are familiar with these techniques to some degree.
Regardless, a brief review of the concepts necessary to understand the
tasks that you will perform in the book is provided.
After the brief review, we begin by examining how to work with raw
text data, slowly working our way through how to present data to machine
learning and deep learning algorithms. After you are familiar with some
basic preprocessing algorithms, we will make our way into some of the
more advanced NLP tasks, such as training and working with trained
word embeddings, spell-check, text generation, and question-and-answer
generation.
All of the examples utilize the Python programming language and
popular deep learning and machine learning frameworks, such as scikit-­
learn, Keras, and TensorFlow. Readers can feel free to access the source
code utilized in this book on the corresponding GitHub page and/or try
their own methods for solving the various problems tackled in this book
with the datasets provided.

xv
CHAPTER 1

What Is Natural
Language
Processing?
Deep learning and machine learning continues to proliferate throughout
various industries, and has revolutionized the topic that I wish to discuss
in this book: natural language processing (NLP). NLP is a subfield of
computer science that is focused on allowing computers to understand
language in a “natural” way, as humans do. Typically, this would refer to
tasks such as understanding the sentiment of text, speech recognition, and
generating responses to questions.
NLP has become a rapidly evolving field, and one whose applications
have represented a large portion of artificial intelligence (AI)
breakthroughs. Some examples of implementations using deep learning
are chatbots that handle customer service requests, auto-spellcheck on cell
phones, and AI assistants, such as Cortana and Siri, on smartphones. For
those who have experience in machine learning and deep learning, natural
language processing is one of the most exciting areas for individuals to
apply their skills. To provide context for broader discussions, however, let’s
discuss the development of natural language processing as a field.

© Taweh Beysolow II 2018 1


T. Beysolow II, Applied Natural Language Processing with Python,
https://doi.org/10.1007/978-1-4842-3733-5_1
Chapter 1 What Is Natural Language Processing?

The History of Natural Language Processing


Natural language processing can be classified as a subset of the broader
field of speech and language processing. Because of this, NLP shares
similarities with parallel disciplines such as computational linguistics,
which is concerned with modeling language using rule-based models.
NLP’s inception can be traced back to the development of computer science
in the 1940s, moving forward along with advances in linguistics that led to
the construction of formal language theory. Briefly, formal language theory
models language on increasingly complex structures and rules to these
structures. For example, the alphabet is the simplest structure, in that it is
a collection of letters that can form strings called words. A formal language
is one that has a regular, context-free, and formal grammar. In addition to
the development of computer sciences as a whole, artificial intelligence’s
advancements also played a role in our continuing understanding of NLP.
In some sense, the single-layer perceptron (SLP) is considered to be the
inception of machine learning/AI. Figure 1-1 shows a photo of this model.

Figure 1-1. Single-layer perceptron

The SLP was designed by neurophysiologist Warren McCulloch and


logician Walter Pitt. It is the foundation of more advanced neural network
models that are heavily utilized today, such as multilayer perceptrons.

2
Chapter 1 What Is Natural Language Processing?

The SLP model is seen to be in part due to Alan Turing’s research in the
late 1930s on computation, which inspired other scientists and researchers
to develop different concepts, such as formal language theory.
Moving forward to the second half of the twentieth century, NLP starts
to bifurcate into two distinct groups of thought: (1) those who support a
symbolic approach to language modelling, and (2) those who support a
stochastic approach. The former group was populated largely by linguists
who used simple algorithms to solve NLP problems, often utilizing pattern
recognition. The latter group was primarily composed of statisticians
and electrical engineers. Among the many approaches that were popular
with the second group was Bayesian statistics. As the twentieth century
progressed, NLP broadened as a field, including natural language
understanding (NLU) to the problem space (allowing computers to react
accurately to commands). For example, if someone spoke to a chatbot and
asked it to “find food near me,” the chatbot would use NLU to translate this
sentence into tangible actions to yield a desirable outcome.
Skip closer to the present day, and we find that NLP has experienced
a surge of interest alongside machine learning’s explosion in usage over
the past 20 years. Part of this is due to the fact that large repositories of
labeled data sets have become more available, in addition to an increase in
computing power. This increase in computing power is largely attributed
to the development of GPUs; nonetheless, it has proven vital to AI’s
development as a field. Accordingly, demand for materials to instruct
data scientists and engineers on how to utilize various AI algorithms has
increased, in part the reason for this book.
Now that you are aware of the history of NLP as it relates to the present
day, I will give a brief overview of what you should expect to learn. The
focus, however, is primarily to discuss how deep learning has impacted
NLP, and how to utilize deep learning and machine learning techniques to
solve NLP problems.

3
Chapter 1 What Is Natural Language Processing?

 Review of Machine Learning and Deep


A
Learning
You will be refreshed on important machine learning concepts,
particularly deep learning models such as multilayer perceptrons (MLPs),
recurrent neural networks (RNNs), and long short-term memory (LSTM)
networks. You will be shown in-depth models utilizing toy examples before
you tackle any specific NLP problems.

 LP, Machine Learning, and Deep Learning


N
Packages with Python
Equally important as understanding NLP theory is the ability to apply it in
a practical context. This book utilizes the Python programming language,
as well as packages written in Python. Python has become the lingua
franca for data scientists, and support of NLP, machine learning, and
deep learning libraries is plentiful. I refer to many of these packages when
solving the example problems and discussing general concepts.
It is assumed that all readers of this book have a general understanding
of Python, such that you have the ability to write software in this language.
If you are not familiar with this language, but you are familiar with others,
the concepts in this book will be portable with respect to the methodology
used to solve problems, given the same data sets. Be that as it may, this
book is not intended to instruct users on Python. Now, let’s discuss some of
the technologies that are most important to understanding deep learning.

TensorFlow
One of the groundbreaking releases in open source software, in addition
to machine learning at large, has undoubtedly been Google’s TensorFlow.
It is an open source library for deep learning that is a successor to Theano,
a similar machine learning library. Both utilize data flow graphs for

4
Chapter 1 What Is Natural Language Processing?

computational processes. Specifically, we can think of computations as


dependent on specific individual operations. TensorFlow functionally
operates by the user first defining a graph/model, which is then operated
by a TensorFlow session that the user also creates.
The reasoning behind using a data flow graph rather than another
computational format computation is multifaceted, however one of the
more simple benefits is the ability to port models from one language to
another. Figure 1-2 illustrates a data flow graph.

Graph of Nodes, also called operations (ops)


biases

weights Add Softmax


MatMul Xent
inputs

targets

Figure 1-2. Data flow graph diagram

For example, you may be working on a project where Java is the


language that is most optimal for production software due to latency
reasons (high-frequency trading, for example); however, you would like to
utilize a neural network to make predictions in your production system.
Rather than dealing with the time-consuming task of setting up a training
framework in Java for TensorFlow graphs, something could be written in
Python relatively quickly, and then the graph/model could be restored by
loading the weights in the production system by utilizing Java. TensorFlow
code is similar to Theano code, as follows.

    #Creating weights and biases dictionaries


    weights = {'input': tf.Variable(tf.random_normal([state_
size+1, state_size])),

5
Chapter 1 What Is Natural Language Processing?

        'output': tf.Variable(tf.random_normal([state_size,
n_classes]))}
    biases = {'input': tf.Variable(tf.random_normal([1, state_
size])),
        'output': tf.Variable(tf.random_normal([1, n_classes]))}

    #Defining placeholders and variables


    X = tf.placeholder(tf.float32, [batch_size, bprop_len])
    Y = tf.placeholder(tf.int32, [batch_size, bprop_len])
    init_state = tf.placeholder(tf.float32, [batch_size, state_
size])
    input_series = tf.unstack(X, axis=1)
    labels = tf.unstack(Y, axis=1)
    current_state = init_state
    hidden_states = []

    #Passing values from one hidden state to the next


    for input in input_series: #Evaluating each input within
the series of inputs
        input = tf.reshape(input, [batch_size, 1]) #Reshaping
input into MxN tensor
        input_state = tf.concat([input, current_state], axis=1)
#Concatenating input and current state tensors
        _hidden_state = tf.tanh(tf.add(tf.matmul(input_
state, weights['input']), biases['input'])) #Tanh
transformation
        hidden_states.append(_hidden_state) #Appending the next
state
        current_state = _hidden_state #Updating the current state

TensorFlow is not always the easiest library to use, however, as there


often serious gaps between documentation for toy examples vs. ­real-­
world examples that reasonably walk the reader through the complexity of
implementing a deep learning model.
6
Chapter 1 What Is Natural Language Processing?

In some ways, TensorFlow can be thought of as a language inside of


Python, in that there are syntactical nuances that readers must become
aware of before they can write applications seamlessly (if ever). These
concerns, in some sense, were answered by Keras.

Keras
Due to the slow development process of applications in TensorFlow,
Theano, and similar deep learning frameworks, Keras was developed for
prototyping applications, but it is also utilized in production engineering
for various problems. It is a wrapper for TensorFlow, Theano, MXNet, and
DeepLearning4j. Unlike these frameworks, defining a computational graph
is relatively easy, as shown in the following Keras demo code.

def create_model():
    model = Sequential()
    model.add(ConvLSTM2D(filters=40, kernel_size=(3, 3),
                       input_shape=(None, 40, 40, 1),
                       padding='same', return_sequences=True))
    model.add(BatchNormalization())

    model.add(ConvLSTM2D(filters=40, kernel_size=(3, 3),


                       padding='same', return_sequences=True))
    model.add(BatchNormalization())
    
    model.add(ConvLSTM2D(filters=40, kernel_size=(3, 3),
                       padding='same', return_sequences=True))
    model.add(BatchNormalization())

    model.add(ConvLSTM2D(filters=40, kernel_size=(3, 3),


                       padding='same', return_sequences=True))
    model.add(BatchNormalization())

    model.add(Conv3D(filters=1, kernel_size=(3, 3, 3),

7
Chapter 1 What Is Natural Language Processing?

                   activation='sigmoid',
                   padding='same', data_format='channels_last'))
    model.compile(loss='binary_crossentropy', optimizer='adadelta')
    return model

Although having the added benefit of ease of use and speed with
respect to implementing solutions, Keras has relative drawbacks when
compared to TensorFlow. The broadest explanation is that Keras
users have considerably less control over their computational graph
than TensorFlow users. You work within the confines of a sandbox
when using Keras. TensorFlow is better at natively supporting more
complex operations, and providing access to the most cutting-edge
implementations of various algorithms.

Theano
Although it is not covered in this book, it is important in the progression
of deep learning to discuss Theano. The library is similar to TensorFlow
in that it provides developers with various computational functions (add,
matrix multiplication, subtract, etc.) that are embedded in tensors when
building deep learning and machine learning models. For example, the
following is a sample Theano code.

(code redacted please see github)


X, Y = T.fmatrix(), T.vector(dtype=theano.config.floatX)
    weights = init_weights(weight_shape)
    biases = init_biases(bias_shape)
    predicted_y = T.argmax(model(X, weights, biases), axis=1)

    cost = T.mean(T.nnet.categorical_crossentropy(predicted_y, Y))


    gradient = T.grad(cost=cost, wrt=weights)
    update = [[weights, weights - gradient * 0.05]]

8
Chapter 1 What Is Natural Language Processing?

    train = theano.function(inputs=[X, Y], outputs=cost,


updates=update, allow_input_downcast=True)
    predict = theano.function(inputs=[X], outputs=predicted_y,
allow_input_downcast=True)

    for i in range(0, 10):


        print(predict(test_x_data[i:i+1]))

if __name__ == '__main__':

    model_predict()

When looking at the functions defined in this sample, notice that T is


the variable defined for a tensor, an important concept that you should
be familiar with. Tensors can be thought of as objects that are similar
to vectors; however, they are distinct in that they are often represented
by arrays of numbers, or functions, which are governed by specific
transformation rules unique unto themselves. Tensors can specifically be
a single point or a collection of points in space-time (any function/model
that combines x, y, and z axes plus a dimension of time), or they may be a
defined over a continuum, which is a tensor field. Theano and TensorFlow
use tensors to perform most of the mathematical operations as data is
passed through a computational graph, colloquially known as a model.
It is generally suggested that if you do not know Theano, you should
focus on mastering TensorFlow and Keras. Those that are familiar with
the Theano framework, however, may feel free to rewrite the existing
TensorFlow code in Theano.

9
Chapter 1 What Is Natural Language Processing?

Applications of Deep Learning to NLP


This section discusses the applications of deep learning to NLP.

Introduction to NLP Techniques and Document


Classification
In Chapter 3, we walk through some introductory techniques, such as
word tokenization, cleaning text data, term frequency, inverse document
frequency, and more. We will apply these techniques during the course
of our data preprocessing as we prepare our data sets for some of the
algorithms reviewed in Chapter 2. Specifically, we focus on classification
tasks and review the relative benefits of different feature extraction
techniques when applied to document classification tasks.

T opic Modeling
In Chapter 4, we discuss more advanced uses of deep learning, machine
learning, and NLP. We start with topic modeling and how to perform it via
latent Dirichlet allocation, as well as non-negative matrix factorization.
Topic modeling is simply the process of extracting topics from documents.
You can use these topics for exploratory purposes via data visualization or
as a preprocessing step when labeling data.

W
 ord Embeddings
Word embeddings are a collection of models/techniques for mapping
words (or phrases) to vector space, such that they appear in a high-­
dimensional field. From this, you can determine the degree of similarity,
or dissimilarity, between one word (or phrase, or document) and another.
When we project the word vectors into a high-dimensional space, we can
envision that it appears as something like what’s shown in Figure 1-3.

10
Chapter 1 What Is Natural Language Processing?

walked

swam

walking

swimming

Verb tense
Figure 1-3. Visualization of word embeddings

Ultimately, how you utilize word embeddings is up to your own


interpretation. They can be modified for applications such as spell check,
but can also be used for sentiment analysis, specifically when assessing
larger entities, such as sentences or documents in respect to one another.
We focus simply on how to train the algorithms and how to prepare data to
train the embeddings themselves.

Language Modeling Tasks Involving RNNs


In Chapter 5, we end the book by tackling some of the more advanced NLP
applications, which is after you have been familiarized with preprocessing
text data from various format and training different algorithms.
Specifically, we focus on training RNNs to perform tasks such as name
entity recognition, answering questions, language generation, and
translating phrases from one language to another.

11
Chapter 1 What Is Natural Language Processing?

Summary
The purpose of this book is to familiarize you with the field of natural
language processing and then progress to examples in which you
can apply this knowledge. This book covers machine learning where
necessary, although it is assumed that you have already used machine
learning models in a practical setting prior.
While this book is not intended to be exhaustive nor overly academic,
it is my intention to sufficiently cover the material such that readers are
able to process more advanced texts more easily than prior to reading
it. For those who are more interested in the tangible applications of NLP
as the field stands today, it is the vast majority of what is discussed and
shown in examples. Without further ado, let’s begin our review of machine
learning, specifically as it relates to the models used in this book.

12
CHAPTER 2

Review of Deep
Learning
You should be aware that we use deep learning and machine learning
methods throughout this chapter. Although the chapter does not provide
a comprehensive review of ML/DL, it is critical to discuss a few neural
network models because we will be applying them later. This chapter also
briefly familiarizes you with TensorFlow, which is one of the frameworks
utilized during the course of the book. All examples in this chapter use toy
numerical data sets, as it would be difficult to both review neural networks
and learn to work with text data at the same time.
Again, the purpose of these toy problems is to focus on learning how
to create a TensorFlow model, not to create a deployable solution. Moving
forward from this chapter, all examples focus on these models with text data.

 ultilayer Perceptrons and Recurrent


M
Neural Networks
Traditional neural network models, often referred to as multilayer
perceptron models (MLPs), succeed single-layer perceptron models (SLPs).
MLPs were created to overcome the largest shortcoming of the SLP model,
which was the inability to effectively handle data that is not linearly
separable. In practical cases, we often observe that multivariate data is

© Taweh Beysolow II 2018 13


T. Beysolow II, Applied Natural Language Processing with Python,
https://doi.org/10.1007/978-1-4842-3733-5_2
Chapter 2 Review of Deep Learning

non-linear, rendering the SLP null and void. MLPs are able to overcome
this shortcoming—specifically because MLPs have multiple layers. We’ll
go over this detail and more in depth while walking through some code to
make the example more intuitive. However, let’s begin by looking at the
MLP visualization shown in Figure 2-1.

Figure 2-1. Multilayer perceptron

Each layer of an MLP model is connected by weights, all of which are


initialized randomly from a standard normal distribution. The input layer
has a set number of nodes, each representative of a feature within a neural
network. The number of hidden layers can vary, but each of them typically
has the same number of nodes, which the user specifies. In regression, the
output layer has one node. In classification, it has K nodes, where K is the
number of classes.
Next, let’s have an in-depth discussion on how an MLP works and
complete an example in TensorFlow.

14
Chapter 2 Review of Deep Learning

T oy Example 1: Modeling Stock Returns


with the MLP Model
Let’s imagine that we are trying to predict Ford Motor Company (F)
stock returns given the returns of other stocks on the same day. This is a
regression problem, given that we are trying to predict a continuous value.
Let’s begin by defining an mlp_model function with arguments that will be
used later, as follows:

def mlp_model(train_data=train_data, learning_rate=0.01,


iters=100, num_hidden1=256):

This Python function contains all the TensorFlow code that forms the
body of the neural network. In addition to defining the graph, this function
invokes the TensorFlow session that trains the network and makes
predictions. We’ll begin by walking through the function, line by line, while
tying the code back to the theory behind the model.
First, let’s address the arguments in our function: train_data is the
variable that contains our training data; in this example; it is the returns of
specific stocks over a given period of time. The following is the header of
our data set:

0  0.002647 -0.001609  0.012800  0.000323  0.016132 -0.004664


-0.018598
1  0.000704  0.000664  0.023697 -0.006137 -0.004840  0.003555
-0.006664
2  0.004221  0.003600  0.002469 -0.010400 -0.008755 -0.002737  
0.025367
3  0.003328  0.001605  0.050493  0.006897  0.010206  0.002260
-0.007156
4  0.001397  0.004052 -0.009965 -0.012720 -0.019235 -0.002255  
0.017916

15
Chapter 2 Review of Deep Learning

5 -0.009326 -0.003754 -0.014506 -0.006607 -0.034865  0.011463  


0.003844
6  0.008446  0.005747  0.022830  0.009312  0.021757 -0.000319  
0.023982
7  0.002705  0.002623  0.007636  0.020099 -0.007433 -0.008303
-0.004330
8 -0.011224 -0.009530 -0.008161 -0.003230 -0.015381 -0.003381
-0.010674
9  0.012496  0.010942  0.016750  0.007777  0.001233  0.008724  
0.033367

Each of the columns represent the percentage return of a stock on a


given day, with our training set containing 1180 observations and our test
set containing 582 observations.
Moving forward, we come to the learning rate and activation function.
In machine learning literature, the learning rate is often represented by the
symbol η (eta). The learning rate is a scalar value that controls the degree
to which the gradient is updated to the parameter that we wish to change.
We can exemplify this technique when referring to the gradient descent
update method. Let’s first look at the equation, and then we can break it
down iteratively.

1 N
( )
2
Si =1 hq ( x ) - y i
i
q t +1 = q t - h (2.1)
N

q t +1 = q t - h
1
N
( i
)
Si =1 2 hq ( x ) - y i Ñq hq ( x )
i

In Equation 2.1, we are updating some parameter, θ, at a given


time step, t. hθ(x)i is equal to the hypothesized label/value, y being the
actual label/value, in addition to N being equal to the total number of
observations in the data set we are training on.
∇θhθ(x)i is the gradient of the output with respect to the parameters of
the model.

16
Chapter 2 Review of Deep Learning

Each unit in a neural network (with the exception of the input layer)
receives the weighted sum of inputs multiplied by weights, all of which are
summed with a bias. Mathematically, this can be described in Equation 2.2.

y = f ( x ,w T ) + b (2.2)

In neural networks, the parameters are the weights and biases. When
referring to Figure 2-1, the weights are the lines that connect the units in
a layer to one another and are typically initialized by randomly sampling
from a normal distribution. The following is the code where this occurs:

    
weights = {'input': tf.Variable(tf.random_normal([train_x.
shape[1], num_hidden])),
            
'hidden1': tf.Variable(tf.random_normal([num_
hidden, num_hidden])),
            
'output': tf.Variable(tf.random_normal([num_hidden,
1]))}

    
biases = {'input': tf.Variable(tf.random_normal([num_
hidden])),
            
'hidden1': tf.Variable(tf.random_normal([num_
hidden])),
            'output': tf.Variable(tf.random_normal([1]))}

Because they are part of the computational graph, weights and biases
in TensorFlow must be initialized as TensorFlow variables with the tf.
Variable(). TensorFlow thankfully has a function that generates numbers
randomly from a normal distribution called tf.random_normal(), which
takes an array as an argument that specifies the shape of the matrix that you
are creating. For people who are new to creating neural networks, choosing
the proper dimensions for the weight and bias units is a typical source of
frustration. The following are some quick pointers to keep in mind :

• When referring to the weights, the columns of a given


layer need to match the rows of the next layer.

17
Chapter 2 Review of Deep Learning

• The columns of the weights for every layer must match


the number of units for each layer in the biases.

• The output layer columns for the weights dictionary


(and array shape for the bias dictionary) should be
representative of the problem that you are modeling.
(If regression, 1; if classification, N, where N = the
number of classes).

You might be curious as to why we initialize the weights and biases


randomly. This leads us to one of the key components of neural networks’
success. The easiest explanation is to imagine the following two scenarios:

• All weights are initialized to 1. If all the weights are


initialized to 1, every neuron is passed the same value,
equal to the weighted sum, plus the bias, and then put
into some activation function, whatever this value may be.

• All weights are initialized to 0. Similar to the prior


scenario, all the neurons are passed the same value,
except that this time, the value is definitely zero.

The more general problem associated with weights that are initialized
at the same location is that it makes the network susceptible to getting
stuck in local minima. Let’s imagine an error function, such as the one
shown in Figure 2-2.

18
Other documents randomly have
different content
qu'on sent serpenter autour de soi sans savoir au juste où il est, une
sape mystérieuse où vont et viennent sans cesse des hommes
inconnus qui font quelque chose.» La nuit on entend des pas dans le
mur, et l'on ne sait pas si l'un des beaux tableaux de courtisanes
nues peintes par Titien ne va pas tourner sur lui-même, et donner
passage à un bravo qu'il faudra suivre dans quelque lieu profond et
humide dont il ressortira seul.
Il y a toute sorte d'entrées masquées; de fausses portes qui
s'ouvrent avec de petites clés singulières. Ici il y a un bouton à
presser, là une trappe à lever. Piranèse, le grand Piranèse lui-même,
ce démon du cauchemar architectural, lui qui sait arrondir des
voûtes si noires, si suantes, si prêtes à crouler, qui fait pousser dans
ses décombres des plantes qui ont l'air de serpents, et qui tortille si
hideusement les jambes difformes de la mandragore entre les
pierres lézardées et les corniches disjointes, n'aurait pas, dans son
eau-forte la plus fiévreuse et la plus surnaturelle, atteint à cette
puissance de terreur opaque et étouffante.
On tend des églises en noir, on chante un service, on lève une dalle
dans un caveau, on creuse une fosse pour une personne vivante.
Derrière ces beaux rideaux de brocart brodés richement, à la place
du lit il y 'a un billot de bois grossier, une hache et un drap. Toutes
les chambres ont l'air sinistre et inhabitable. La chambre même de la
Tisbé a l'air d'une nef d'église abandonnée, et c'est en vain que cette
draperie d'étoffe brochée rompt coquettement ses plis, et fait
scintiller outre mesure ses filaments et ses fleurs d'or. C'est en vain
que les masques de théâtre sourient tant qu'ils peuvent sur les
fauteuils et le parquet. Les chaises ont beau faire, elles ressemblent
à des prie-Dieu, et l'habit pailleté de la Rosemonde n'est autre chose
que le suaire oublié par un fantôme. Les murs sont d'une couleur à
ce que le sang n'y paraisse guère. On sent bien que quelqu'un doit
mourir là. C'est une chambre délicieuse pour assassiner, et très
logeable pour les morts.
Réellement, je ne crois pas que la Catarina soit sortie de là bien
vivante, et je ne jurerais pas que la Tisbé, toute bonne fille qu'elle
est, n'ait mêlé un peu du flacon noir avec le flacon blanc. Je
conseillerais amicalement au Rodolfo de modérer sa joie.
Une scène d'espions a été retranchée tout entière, et sera rétablie à
la reprise. Elle se passait dans une espèce de coupe-gorge ou
d'hôtellerie douteuse pour laquelle on a craint la susceptibilité trop
chatouilleuse des loges du Théâtre-Français.
Je ne sais pas trop jusqu'à quel point il est bon de casser le nez ou
les doigts aux bas-reliefs, et d'ébarber une cathédrale de ses guivres
et de ses tarasques; mais que voulez-vous? en fait de bas-reliefs le
public aime mieux une planche rabotée. Une branche d'arbre coupée
peut contribuer à rendre l'air d'un berceau plus pur, mais elle fait
une plaie au tronc de l'arbre, et y laisse un écusson blanc, hideux à
voir comme un ulcère.
Je ne suis point de ceux qui croient qu'une pensée peut être ôtée
impunément d'une œuvre quelconque. Vous avez une toile où il y a
un nœud, vous arrachez ce nœud, mais vous arrachez avec lui le fil
auquel il tient, et vous faites un vide dans toute la longueur de la
trame: il en est ainsi des pensées. Retranchez une phrase au
premier acte: vous en rendez trois autres inintelligibles au second,
six au troisième, et ainsi de suite.
Toute œuvre naît complète, bien ou mal conformée, elle a la jambe
fine, ou elle est boiteuse. C'est la chance; mais couper la cuisse à un
pied bot ne me paraît pas un moyen de lui faire une belle jambe.
Quant à la pièce de M. Hugo, elle a d'aussi belles jambes que la
Diane Chasseresse, et on ne lui a retranché que quelques boucles de
cheveux, qui voltigeaient trop capricieusement et trop sauvagement
sur ses blanches épaules, pour être du goût des bourgeois bien
cravatés de la bonne ville de Paris; et les précieuses boucles, aussi
fines et aussi déliées que la plus belle soie, se retrouvent intactes
entre les feuilles satinées de la brochure.
XIX

MADEMOISELLE RACHEL DANS ANGELO

27 mai 1850.
Angelo est le seul drame en prose que Victor Hugo ait fait
représenter au Théâtre-Français; mais une telle prose, si nette, si
solide, si sculpturale, vaut le vers; elle en a l'éclat, la sonorité le
rythme même; elle est tout aussi littéraire et difficile à écrire.
Nous croyons que jusqu'ici on n'a pas tiré de la prose, au théâtre,
tous les effets qu'elle contient. Presque tous les chefs-d'œuvre de
notre répertoire sont en vers, et les quelques exceptions que l'on
citerait ne feraient que confirmer la règle.
Les pièces régulières de Molière, celles sur lesquelles il comptait,
sont en vers: lorsqu'il emploie la prose, ce n'est que comme à regret
et lorsqu'il est pressé par les ordres du roi.
Son Festin de Pierre, ou pour parler correctement, son Convié de
Pierre, d'un si beau style pourtant, a été versifié après coup, par
Thomas Corneille, et ce n'est que dans ces derniers temps qu'il a été
restitué dans sa forme première; on a cru longtemps que la prose
n'était pas quelque chose d'assez achevé, d'assez savant, d'assez
poli pour être offert au public raffiné de la Comédie-Française.
Marivaux et Lesage, qui écrivirent en prose en furent moins prisés
par les délicats d'alors, bien qu'ils vinssent à une époque
relativement moderne. Beaumarchais fut le premier qui installa
victorieusement la prose sur le théâtre habitué à la mélopée tragique
et à l'éclat de rire scandé de la comédie, mais aussi quelle prose
habile, travaillée, taillée à facettes, pleine de science et d'adresse
féconde en ressources inattendues, en ruses acoustiques, en
moyens de détacher la phrase, de faire scintiller le mot et aiguiser le
trait, de produire des effets harmonieux ou saccadés! Cette science
est poussée à un tel point que, dans certains passages, non
seulement les résultats du vers sont atteints, mais encore ceux de la
musique, comme dans la tirade de la calomnie, par exemple, que
Rossini n'a eu que la peine de noter, en l'accentuant un peu, pour en
faire un air admirable. Beaumarchais va si loin qu'il se sert de
l'assonance et de l'allitération, et souvent du vers blanc de huit
pieds.
Une prose ainsi faite a toutes les qualités du vers, avec, plus
d'aisance, de rapidité et de souplesse; elle est peut-être le langage
le plus accommodé au théâtre, où elle tiendrait la place entre le vers
et la langue vulgaire. Nous manquons pour la scène, et c'est un
malheur, du vers ïambique que possédaient les Grecs et les Latins.
Nous sommes obligés de nous servir du vers héroïque. L'hexamètre
ou alexandrin, pour lui donner son nom moderne, quoique
admirablement manié par de grands poètes et assoupli avec une
prodigieuse habileté métrique dans ces dernières années, garde
toujours quelque chose de redondant et d'emphatique. Sa césure
mal placée se fait trop sentir dans le débit, et gêne l'illusion. Nous ne
voulons pas dire par là que ces difficultés n'ont jamais été
surmontées; elles l'ont été souvent, et de la manière la plus
brillante.
Quand on est habile, on tire des accords mélodieux d'un roseau,
mais une flûte à plusieurs clés ne gâte rien; les Anglais et les
Allemands ont au théâtre une grande liberté métrique: Shakespeare
part de la prose pour arriver, par le vers blanc, au vers rimé. Les
Espagnols ont le vers de romance octosyllabe rapide chargé d'une
légère assonance, ne rimant pas quand il le veut et pour produire un
effet. La prose ainsi que l'ont faite Beaumarchais et Victor Hugo, l'un
pour la comédie et l'autre pour le drame, nous paraît parfaitement
pouvoir remplacer cet jambe qui nous fait faute. Cela ne veut pas
dire que nous proscrivions le vers de la scène: bien que
l'arrangement de la vie ait fait de nous un critique, nous nous
souvenons que nous sommes poète, et ce n'est pas nous qui
méconnaîtrons jamais le charme et les droits de la poésie; mais nous
pensons que certains sujets peuvent être creusés plus profondément
en prose qu'en vers, et qu'un autre ordre d'idées dramatiques
s'exprimeraient mieux par ce moyen.
Nous étions sûr que Mademoiselle Rachel obtiendrait un immense
succès dans la Tisbé, et qu'elle serait parfaitement à l'aise avec ces
lignes aussi fermes que les alexandrins de Corneille. Rien ne va
mieux à son débit détaillé et savant, à son accent profond, que ces
phrases qui résonnent sur l'idée comme une armure d'airain sur les
épaules d'un guerrier, que ce style si arrêté, si net et si magistral, qui
vient en avant comme un bas-relief taillé par le ciseau; en jouant la
Tisbé, Mademoiselle Rachel s'est emparée du drame comme elle
s'est emparée de la tragédie. Elle régnera désormais sans rivale sur
l'empire romantique, comme elle régnait naguère sur l'empire
classique.
Le rôle de Tisbé a été, comme chacun sait, rempli, d'origine, par
Mademoiselle Mars; nous n'en avons pas gardé un souvenir bien
enthousiaste, le talent de Mademoiselle Mars, nous l'avouons à notre
honte, ne nous a jamais fait grande impression dans ce rôle. Tout en
rendant justice à ses incontestables qualités, nous trouvons qu'elle
n'avait compris la Tisbé que très imparfaitement. Mademoiselle Mars
possédait au plus haut degré la distinction bourgeoise et le bon ton
vulgaire, si ces mois ne souffrent pas d'être accouplés ensemble. Elle
n'avait pas cette distinction native dont une duchesse peut manquer,
et qui se trouve quelquefois chez une bohémienne. Les grâces
étudiées, apprises, ne résultent pas d'un heureux naturel, mais bien
d'une volonté patiente. La préoccupation du comme-il-faut était
visible chez elle, comme chez une femme de banquier dans une
soirée aristocratique. Certes, il n'y avait rien à reprendre ni dans la
voix, ni dans le geste, mais ce n'était pas là la distinction aisée,
naturelle, sûre d'elle-même et qui s'oublie sans cesser d'être. En un
mot, elle manquait de race.
Le rôle de Tisbé l'effarouchait. Elle l'effaçait plutôt qu'elle ne le
faisait ressortir. Elle en apprivoisait les sauvageries, croyant le rendre
ainsi de bon goût. Elle faisait de Tisbé une dame, qu'on aurait pu
présenter dans les salons, et qui n'y aurait pas été déplacée. Elle
prosaïsait tant qu'elle pouvait, pour la rendre convenable, la
fougueuse et fantasque comédienne. Tout le côté pittoresque du rôle
avait disparu; le costume même, n'avait pas la fantaisie bizarre et la
folle richesse caractéristique de la comédienne courtisane qui retient
quelque chose à la ville de l'oripeau du théâtre, et en l'outrant se
venge sur le luxe, de ce qu'il coûte de honte.
C'était quelque chose de décent et de sobre dans le style
troubadour, des turbans et des toques, des jockeys aux manches, un
costume avec lequel on eût pu aller en soirée.
Une grande qualité de Mademoiselle Rachel, est qu'elle réalise
plastiquement l'idée de son rôle: dans Phèdre, c'est une princesse
grecque des temps héroïques; dans Angelo, une courtisane italienne
du XVIe siècle, et cela d'une manière incontestable aux yeux.
Personne ne s'y trompera, les sculpteurs et les peintres ne feraient
pas mieux. Elle domine tout de suite, le public par cet aspect
impérieusement vrai. Dans la tragédie, elle semble se détacher d'un
bas-relief de Phidias pour venir sur l'avant-scène: dans le drame, on
dirait qu'elle descend d'un cadre de Bronzino ou du Titien. L'illusion
est complète. Avant d'être une grande actrice, elle est une grande
artiste. Sa beauté, dont les bourgeois ne se rendent pas compte et
qu'ils nient quelquefois tout en en subissant l'empire, a une flexibilité
étonnante.
Tout à l'heure c'était un marbre pâle, maintenant c'est une chaude
peinture vénitienne. Elle s'est assortie au milieu dans lequel elle doit
se mouvoir. Quelle profonde harmonie entre cette pâleur dorée, ces
perles, ces passequilles, ces sequins d'or, ces tapisseries de cuir de
Cordoue, ces boiseries de chêne! Comme c'est bien la figure de cet
intérieur, comme elle se détache vigoureusement du fond! comme
elle vit aisément dans ce siècle, et nous fait croire à la vérité de
l'action!
Il est impossible de rêver quelque chose de plus radieux, de plus
étincelant, d'une plus splendide indolence que la toilette de la Tisbé
quand elle traverse la fête, tramant en laisse le podestat qui gronde
et grogne comme un tigre dont le belluaire tire trop vite la chaîne...
C'est bien là le luxe effréné de l'Italie artiste et courtisane de ce
temps où Titien peignait les maîtresses de prince toutes nues, et où
Véronèse inondait de soie, de velours et de brocart d'or les blancs
escaliers des terrasses.
De quel air gracieusement distrait elle écoute les doléances du
pauvre tyran, l'éloignant toujours du but où il veut revenir, et comme
elle détaille admirablement ce récit où elle raconte comment sa
mère, pauvre femme sans mari, qui chantait des chansons
morlaques sur les places, a été délivrée, au moment où on la
conduisait à la potence pour avoir soi-disant, insulté, dans un
couplet, la sacrissime république de Venise, par une gentille enfant
qui a demandé sa grâce! Quel sentiment! quelle émotion sous ce
débit rapide et négligé fait à contre-cœur et par manière d'acquit à
quelqu'un qui n'est pas capable de le comprendre! et avec quelle
aisance de comédienne et de grande dame elle détourne les
soupçons du tyran, et comme elle le renvoie pour dire à Rodolfo
qu'elle l'aime!'On n'est pas plus actrice et plus femme.
Quelle grâce câline et indifférente à la fois pour ne pas trop marquer
le but dans la scène de la clé et dans la grande querelle de la femme
honnête et de la courtisane! Comme elle tient aux dents sa victime,
comme elle la secoue, comme elle la cogne contre les murs; quelle
fureur sauvage, quelle férocité implacable! c'est le sublime de l'ironie
et de l'insulte: il semble que par la voix de l'actrice s'exhale toute la
rancune longuement amassée d'une classe déshéritée et proscrite;
que le paria femelle prend sa revanche en une fois contre les
heureuses du monde, à qui la vertu est si facile et qui n'en cachent
pas moins des amants sous le lit de l'époux! La race maudite relève
son front et jouit superbement du droit de mépriser celle qui
méprise, et d'outrager celle qui outrage; c'est l'accusé jugeant le
magistrat, le patient exécutant le bourreau, c'est tout cela avec plus
de rage encore, c'est la courtisane piétinant l'honnête femme qui lui
a pris son amant.
Nous n'avons jamais rien vu de plus grand, de plus sinistre, de plus
terrible: c'était le même sentiment d'affreuse angoisse que l'on
éprouverait à regarder tourner autour d'une gazelle effarée et
tremblante une tigresse, les yeux enflammés et les ongles en arrêt.
Mais lorsqu'au crucifix elle reconnaît dans Catarina la jeune fille qui a
sauvé sa mère, comme sa colère tombe! comme on la sent
désarmée! Et plus tard, quand elle comprend que Rodolfo ne l'aime
pas, ne l'a jamais aimée, comme elle renonce à la vie et n'a plus
d'autre ambition que de lui faire dire quelquefois: La Tisbé, c'était
une bonne fille!
On peut affirmer hardiment que personne ne jouera mieux la Tisbé
que Mademoiselle Rachel; son cachet y est empreint d'une manière
indélébile. Ce rôle fait corps avec elle; il lui appartient comme elle lui
appartient. Chaque actrice a ainsi dans son répertoire un rôle qui la
résume. Mademoiselle Rachel en a deux: Phèdre, dans la tragédie,
Tisbé dans le drame. Quand on veut voir tout ce qu'elle est, c'est là
qu'il faut la voir. Mademoiselle Rachel, maintenant qu'elle a mis le
pied sur le riche théâtre de Victor Hugo, devrait penser à Lucrèce
Borgia et à Marie Tudor qui seraient pour elle l'occasion de
triomphes non moins éclatants. Le magnifique rôle de femme qui se
trouve dans Warwick ou le Faiseur de rois, drame d'Auguste
Vacquerie, récemment reçu à la Comédie-Française, est aussi très
bien coupé à sa taille, et elle y sera superbe à coup sûr.
Maintenant, venons aux autres interprètes du drame. Mademoiselle
Rébecca, qui représentait Catarina, jouée autrefois, par Madame
Dorval; n'est pas restée au-dessous de son illustre devancière. Cette
jeune sœur de Rachel possède un don précieux, le don des larmes;
elle en verse, et en fait répandre, en dépit du paradoxe de Diderot
sur le comédien, où il est dit que pour faire éprouver il ne faut rien
sentir. Jamais sensibilité plus vraie, plus communicative, n'a soulevé
la poitrine d'une actrice. Elle s'est fait admirer à côté de sa sœur;
l'étoile n'a pas été éteinte par le rayonnement de l'astre: que dire de
plus?
Maillard est élégant, passionné et fatal dans le rôle de Rodolfo.
Beauvallet est toujours le plus redoutable tyran de Padoue qu'on
puisse voir et entendre. Le personnage lui va si bien que ses défauts
mêmes y deviennent des qualités. Avec son masque de marbre et sa
voix de bronze il représente admirablement la haine impassible et
froide; on dirait la Fatalité qui marche.

XX

VICTOR HUGO DESSINATEUR

23 juin 1838.
M. Hugo n'est pas seulement un poète, c'est encore un peintre, mais
un peintre que ne désavoueraient pas pour père Louis Boulanger,
Camille Roqueplan et Paul Huet. Quand il voyage, il crayonne tout ce
qui le frappe. Une arête de colline, une dentelure d'horizon, une
forme bizarre de nuage, un détail curieux de porte ou de fenêtre,
une tour, ébréchée, un vieux beffroi: ce sont ses notes; puis le soir, à
l'auberge, il retrace son trait à la plume, l'ombre le colore, y met des
vigueurs, un effet toujours hardiment choisi; et le croquis informe
poché à la hâte sur le genou ou sur le fond du chapeau, souvent à
travers les cahots de la voiture ou le roulis du bateau de passe,
devient un dessin assez semblable à une eau-forte, d'un caprice et
d'un ragoût à surprendre les artistes eux-mêmes.
Le dessin que nous donnons au public est un souvenir d'une tournée
en Belgique, et porte, écrit au revers: Liège(?) 12 août; pluie fine.
C'est une place d'architecture moitié Renaissance, moitié gothique,
avec un effet de nuages entassés les uns sur les autres, comme des
quartiers de montagnes, gros d'orage, et laissant tomber de leurs
flancs entr'ouverts quelques filets de pluie, comme des carquois
renversés dont les traits se répandent.
Un beffroi d'une hauteur prodigieuse enfouit dans la nue son front
chargé d'une couronne de clochetons et de tourelles en poivrière:
une girouette, représentant une comète avec sa queue, palpite au
souffle de l'orage sur la flèche principale. L'action du vent se fait
parfaitement sentir par les lambeaux de nuées balayés tous dans le
même sens. Un rayon de soleil blafard et fauve éclaire une partie du
beffroi, dont les détails d'architecture et d'ornement sont rendus
avec une finesse, un esprit, un pétillant et une adresse admirables.
Ce cadran, où les heures sont ménagées en blanc sur le fond du
papier, a dû exiger, de la part du fougueux poète, bien de la patience
et des précautions. Au pied du beffroi s'élève, sur des piliers massifs,
une halle bizarrement tigrée d'ombres noires, avec des ardoises
imbriquées en manière d'écailles de poisson et de lucarnes à
contrefort en volière. Des jets vifs de lumière pétillent brusquement
entre les sombres colonnes, qui semblent disposées tout exprès pour
cacher des Aubetta ou des Omodei. Cette disposition est très
pittoresque et fournirait un beau motif de décoration. De charmantes
maisons dans le goût espagnol gothique et flamand, ciselées et
travaillées comme des bagues, occupent le fond de la place. On
reconnaît facilement, dans ce dessin d'architecture, la plume qui a
tracé le chapitre de Paris à vol d'oiseau (Notre-Dame de Paris).
Une charmante vue de Notre-Dame de Paris prise du côté de la
rivière par M. André Durand, accompagne le beffroi de Lierre. Notre-
Dame et Victor Hugo sont maintenant inséparables.

XXI

PREMIÈRE DE RUY BLAS

(RENAISSANCE)

12 novembre 1838.
Jamais solennité littéraire n'a excité dans le public un intérêt aussi
vif; car outre la première représentation de Ruy Blas il y avait la
première représentation de la salle, et c'était ce soir-là que devait
définitivement se juger la grande question de savoir si Frédérick
parviendrait à dépouiller cette hideuse défroque de Robert Macaire,
dont les lambeaux semblaient s'attacher à sa chair comme la tunique
empoisonnée du centaure Nessus. Position étrange que celle d'un
acteur qui ne peut se séparer de sa création, et dont le masque
gardé trop longtemps finit par devenir la figure!
Ruy Blas—qu'une plume plus docte que la nôtre a apprécié ce matin
—Ruy Blas, disons-nous a résolu le problème. Robert Macaire n'est
plus; de ce tas de haillons s'est élancé, comme un dieu qui sort du
tombeau, Frédérick, le vrai Frédérick que vous savez, mélancolique,
passionné, le Frédérick plein de force et de grandeur, qui sait trouver
des larmes pour attendrir, des tonnerres pour menacer, qui a la voix,
le regard et le geste, le Frédérick de Faust, de Rochester, de Richard
Darlington et de Gennaro, le plus grand comédien et le plus grand
tragédien moderne. C'est un grand bonheur pour l'art dramatique.
La salie est décorée avec une élégance et une splendeur sans
égales, dans le goût dit Renaissance, quoique certains ornements se
rapportent au commencement du règne de Louis XIV et même de
Louis XV: le ton adopté est or sur blanc, des médaillons en camaïeu
ornent le pourtour des galeries; de larges cadres sculptés et dorés
remplacent, aux avant-scènes, l'inévitable colonne corinthienne; et,
font, de chaque loge une espèce de tableau vivant où les figures
paraissent à mi-corps comme dans les toiles du Valentin et du
Caravage; le rideau, peint par Zara, représente une immense
draperie de velours incarnat relevée par des tresses d'or, et laissant
voir une doublure de satin blanc d'une richesse extrême; le plafond,
que l'on a surbaissé, offre une foule de figures allégoriques et
mythologiques dans des cartouches ovales, par M. Valbrun. Ces
figures nous ont paru peu dignes du reste de la décoration: elles
rappellent un peu trop les paravents du temps de l'Empire; c'est la
seule chose que nous trouvons à reprendre dans toute l'ordonnance
de la salle. Les loges sont tendues d'un bleu tendre, très favorable
aux toilettes; de merveilleux tapis rouges garnissent les couloirs, et
même, chose inouïe! les ouvreuses sont jeunes, jolies et gracieuses,
recherche de bon goût, car rien n'est plus déplaisant à voir que les
ouvreuses ordinaires, pour qui semble avoir été fait ce vers de don
César:
... Affreuse compagnonne
Dont le menton fleurit, et dont le nez trognonne!
Nous souhaitons mille prospérités au théâtre nouveau, entré
franchement dans une voie d'art et de progrès, et qui, nous
l'espérons, ne s'appellera pas pour rien le Théâtre de la Renaissance.
Un discours de M. Méry, un drame de M. Hugo, voilà qui est bien.
Continuez; mais surtout pas de prose, des vers, des vers et encore
des vers! Il faut laisser la prose aux boutiques du Boulevard; des
poètes, pas de faiseurs, il n'y a pas besoin d'ouvrir un nouvel étal
pour les fournitures de ces messieurs; il faut bien que la fantaisie, le
style, l'esprit, la poésie, aient un petit coin pour se produire dans
cette vaste France qui se vante d'être le plus intelligent pays du
monde, dans ce Paris qui se proclame lui-même le cerveau de
l'univers, nous ne savons pourquoi. Il y a bien assez de dix-huit
théâtres pour les mélodrames et le vaudeville.

XXII

REPRISE DE RUY BLAS

28 février 1872.
Pour nous qui avons vu la première représentation de Ray Blas au
théâtre de la Renaissance, qu'elle inaugurait, cette reprise si
longtemps annoncée du beau, drame de Victor Hugo, avait, outre
son intérêt propre, un indéfinissable charme mélancolique.
Dans Marie Tudor, Hoshua Farnaby, le geôlier de la tour de Londres,
dit à Gilbert: «Vois-tu, Gilbert, quand on a des cheveux gris, il ne
faut pas revoir les opinions pour qui l'on faisait la guerre, et les
femmes à qui l'on faisait l'amour, à vingt ans. Femmes et opinions
vous paraissent bien laides, bien vieilles, bien chétives, bien
édentées, bien ridées, bien sottes». Cela sans doute est vrai des
opinions et des femmes, mais pas des œuvres de génie. On peut les
revoir; elles ont l'immortelle jeunesse. En glissant sur leur bronze ou
leur marbre, les années ne font qu'y ajouter la patine et le poli
suprêmes. Ruy Blas nous a paru aussi beau, plus beau peut-être que
la première fois.
Malgré le temps écoulé, nous nous sommes senti, comme à vingt
ans, emporté par ce grand souffle de passion; nous avons
éperdûment aimé la Reine, et franchi avec Ruy Blas le grand mur
hérissé d'une broussaille de fer, pour lui apporter les petites fleurs
bleues d'Allemagne cueillies à Coramanchel. Don Salluste, ce Satan
grand d'Espagne, nous a inspiré la même suffocante terreur, et le
joyeux bohème Zafari, jadis Don César de Bazan, le même
entraînement sympathique. Nous avions retrouvé nos pures
impressions de jeunesse, et le romantisme endormi qui est toujours
en nous s'est réveillé, prêt à recommencer les luttes d'Hernani; mais
il n'en était pas besoin. Chez Victor Hugo, le poète dramatique n'est
plus contesté. Il a forcé les plus rebelles à l'admiration.
Jamais représentation d'œuvre inédite n'excita curiosité plus
ardente. Il est inutile de dire que le théâtre renversait l'axiome
mathématique: le contenant doit être plus grand que le contenu, et
renfermait à coup sûr moins de places que de spectateurs, par un de
ces phénomènes de compressibilité dont le corps humain est
susceptible ces soirs-là. Mab, la fée microscopique, arrivant dans sa
coquille de noix, n'aurait pas trouvé un interstice où glisser sa petite
personne. Sous les arcades tournaient des théories d'aspirants
désappointés, la place était noire de groupes stationnaires, et les
cafés des alentours regorgeaient de monde attendant des nouvelles
de la salle.
On pourrait croire qu'il y avait dans cet empressement, en dehors de
l'attrait littéraire, quelque préoccupation politique. Ruy Blas
renferme, en effet, sans y avoir visé.—Le poète a toujours dédaigné
le succès d'allusion—de ces passages dont l'opposition peut profiter,
contre un gouvernement quelconque, car ils expriment des vérités
toujours applicables, et sont comme les grands lieux-communs de
l'éternelle justice.
Eh bien, dès les premiers vers, toute préoccupation de ce genre
avait disparu. Le poète s'était emparé de son public, et d'un coup de
son aile puissante, l'avait élevé loin des réalités du moment, dans la
haute sphère de son art. On ne sentait même pas cet esprit
d'antagonisme entre les deux écoles rivales, qui, à la première
épreuve, inquiétait parfois l'admiration. On écoutait avec un respect
religieux, comme on eût fait pour le Ciel ou Don Sanche d'Aragon ou
tout autre chef-d'œuvre consacré, pour lequel la critique n'est plus
permise.
Cependant, du premier public, de celui qui assistait à la
représentation de la Renaissance, il restait très peu de survivants.
Trente-quatre ans déjà nous séparent de cette soirée, et nous
cherchions vainement dans les loges les têtes connues autrefois. À
peine en avons-nous distingué cinq ou six, qui se souriaient de loin,
heureuses de se retrouver encore à cette fête de poésie: c'était pour
Ruy Blas un public de postérité.
C'est, comme on sait, Frédérick Lemaître qui à l'origine joua Ruy
Blas, et l'on se demandait avant le lever du rideau s'il parviendrait à
dépouiller la hideuse défroque de Robert Macaire, dont les lambeaux
semblaient s'attacher à sa chair comme la tunique empoisonnée de
Nessus. Position étrange que celle d'un acteur qui ne peut se séparer
de sa création, et dont le masque gardé trop longtemps finit par
devenir la figure. Ruy Blas eut bien vite raison de Robert Macaire. De
ce tas de haillons laissés à ses pieds, s'élança comme un dieu qui
sort du tombeau, Frédérick, le vrai Frédérick que vous savez,
mélancolique, passionné, le Frédérick plein de force et de grandeur,
qui sait trouver des larmes pour attendrir, des tonnerres pour
menacer, qui a la voix, le regard, le geste, le Frédérick de Faust, de
Rochester, de Richard d'Arlington, et de Gennaro,—c'est-à-dire le
plus grand tragédien du plus grand comédien moderne.
L'effet, comme on le pense, fut prodigieux, et le coup de talon sous
lequel, au troisième acte, Ruy Blas écrase don Salluste, comme
l'Archange le Démon, retentit encore dans la mémoire de tous ceux
qui l'ont entendu.
Frédérick vit toujours, mais la force ou plutôt la jeunesse manque à
son génie. Le vieux lion serait encore capable de secouer sa crinière,
et de tirer de sa poitrine un profond rugissement. Il chasserait les
ministres, il tuerait Don Saluste, mais il ne pourrait plus se rouler
avec une grâce amoureuse aux pieds de la Reine, sur les marches
du trône. Cependant, si l'on reprenait les Burgraves, cette œuvre
titanique et digne d'Eschyle, il ne faudrait aller chercher d'autre
acteur que Frédérick. Quel magnifique Job ou quel superbe
Barberousse il ferait! Comme, il rendrait également bien le bandit
patriarche et l'empereur-fantôme!
Dans l'œuvre dramatique de Victor Hugo, Ruy Blas est une des
pièces qui nous plaît le plus—nous disons qui nous plaît;—il en est
d'autres que nous admirons autant.
La charpente du drame s'emmanche avec une précision qui ne laisse
pas apercevoir les jointures, car l'intrigue s'y meut à l'aise, malgré
ses complications et ses tortuosités; le sujet est un de ceux qui
excitent le plus l'imagination, et qu'on retrouve au fond de chaque
jeune cœur, à l'état de rêve secret: sortir brusquement de l'obscurité
par un coup du sort qui ressemble à de la magie, et s'élever d'un vol
rapide vers l'amour idéal, radieux, sublime, l'amour dans la majesté,
et la toute-puissance,—ce qui se rapproche le plus de la Divinité sur
terre:—en un mot, être l'amant de la Reine.
A cette ivresse, à cet éblouissement, à ce vertige des hauts
sommets, se mêle l'appréhension, perpétuelle de la chute inconnue.
Sur ce plancher qui semble ne cacher aucun piège, peut s'ouvrir une
trappe précipitant la victime en quelque gouffre de ténèbres. D'une
porte cachée, va peut-être déboucher, silencieux, glacial, implacable
comme la Haine et la Vengeance, ce diabolique don Salluste qui,
mettant sa main sur l'épaule du malheureux, lui arrachera la peau de
don César de Bazan, pour ne lui laisser devant la Reine que sa
casaque de laquais. Quelle situation tragique et poignante! Travailler
malgré soi et sans savoir comment faire, par une nécessité
inéluctable, au piège que le démon tend à l'ange adoré, et dont on
pressent dans l'ombre les rouages compliqués formidables.
Tous ces personnages sont dessinés et peints comme des portraits
de Vélasquez, avec une maestria souveraine, une force de couleur,
une liberté de touche, une grandeur d'attitude et un sentiment de
l'époque qui fait illusion. Que de fois ne l'avons-nous pas rencontré
ce marquis de Finlas, au Prado, à l'Escurial, à Aranjuez, lui ou
quelqu'un de sa race, dans un cadre blasonné, riche, vêtu de noir,
avec ses yeux de braise trouant sa face morte. Combien d'heures
sommes-nous restés pensifs devant ces pâles infantes, ces reines
exsangues, ces mortes devenues fantômes, n'ayant d'autre trace de
vie, sous les blancheurs argentées des salons et sous le
ruissellement des perles, que le carmin de leurs lèvres et les plaques
de fard de leur pommette! Toute l'Espagne picaresque vit dans cet
étonnante figure de don César de Bazan qui est pour l'œuvre de
Victor Hugo ce que l'étincelant Mercutio est pour l'œuvre de
Shakespeare. Quelle élégance encore sous ce délabrement! Quels
beaux haillons noblement portés! Quelle hauteur d'âme dans cette
misère, et quel effrayant et philosophique oubli des prospérités
disparues! Comme il reste loyal, délicat et fier à travers ces
désordres, cet ami de Matalobos et de Gulatremba, comte de
Garofa, puis de Villalcazar! Et don Geritan, le grotesque rival de Ruy
Blas, quel bon type de la vieille galanterie espagnole! c'est don
Quichotte à la cour, ayant la reine pour Dulcinée du Toboso.
A quoi bon insister si longtemps sur des choses si connues? Faisons
plutôt remarquer que jamais la vie dramatique ne fut menée avec
une aisance si souveraine, avec une puissance si absolue. Le poète,
lui, peut tout exprimer, depuis les effusions les plus lyriques de
l'amour jusqu'aux minutieux détails d'étiquette, de blason et de
généalogie! depuis la plus haute éloquence jusqu'à la plaisanterie la
plus hasardeuse, passant du sublime au grotesque sans le moindre
effort, mêlant tous les tons dans le plus magnifique langage que le
théâtre ait jamais parlé. La franchise de Molière, la grandeur de
Corneille, l'imagination de Shakespeare, fondues au creuset d'Hugo,
forment ici un airain de Corinthe supérieur à tous les métaux.
Bien que le vieux critique soit, en général, laudator temporis acti et
trouve que dans sa jeunesse on jouait bien mieux la comédie, la
tragédie et le drame qu'aujourd'hui, nous devons dire que la reprise
de Ruy Blas à l'Odéon a été supérieure comme jeu, rendu et mise en
scène à la première représentation de la Renaissance, en faisant
exception bien entendu de Frédérick que personne ne peut
remplacer.
Lafontaine, dans Ruy Blas, sans chercher ni éviter de périlleux
souvenirs, a donné ce que permettait son talent inégal, sa nature
ardente et passionnée: des élans inattendus, des cris du cœur, des
accents vrais à travers des emphases et des incohérences. Il a très
bien dit la scène du premier acte, où il conte à Zafari son amour
insensé pour la Reine. Il a été d'une violence magnifique et d'un
emportement superbe dans sa célèbre apostrophe aux Ministres. La
déclaration d'amour qui suit a été soupirée avec une adoration
craintive et passionnée très bien sentie, et au dénouement le laquais
a repris implacablement sa revanche du gentilhomme. Quant à
Geffroy, il est l'idéal même du rôle. Le poète n'a pu concevoir dans
son imagination un don Salluste plus glacial, plus impassible, plus
étranger à tout sentiment humain, plus profond, plus satanique en
un mot, sous une apparence correcte de gentilhomme; chacune de
ses paroles a la froideur polie d'un tranchant de hache et vous
donne un frisson derrière le cou. Alexandre Mauzon était bien loin de
cette perfection sinistre.
Le rôle de don César de Bazan semble appeler invinciblement
Mélingue; ce manteau d'escudero avait été troué et déchiqueté
exprès pour lui, ce pommeau de rapière à coquille sollicitait sa main,
cette plume énervée demandait à palpiter sur son feutre. Qui donc
mieux que lui pouvait se promener d'une mine triomphante, sa cape
au-dessus du cou, et ses bas en spirales? De plus, ces mots
charmants, toutes ces folies étincelantes éclatant sur le fond sombre
du drame comme des chandelles romaines sur un ciel noir, Mélingue
n'a pas eu de peine à faire oublier Saint-Firmin à ceux qui se
souvenaient encore du premier don César.
La Marie de Neubourg de la Renaissance—Atala Beauchêne—avait
été trouvée insuffisante, malgré sa beauté. Rien de plus suave, de
plus charmant, de plus poétique que Mademoiselle Sarah Bernhardt,
la Marie de Neubourg de l'Odéon. Quelle mélancolique langueur!
quel air de colombe dépareillée manquant d'air, de liberté et d'amour
dans cette triste cage dorée où l'enferme le camarera-mayor,
personnification momifiée de l'étiquette! Jamais l'ennui morne et
étouffant de la cour d'Espagne ne fut mieux rendu. Quelle chaste
réserve dans son abandon, quelle délicatesse féminine, et comme
chez elle la reine préserve toujours l'amante! Comme elle est faite
pour être adorée! et comme cette petite, couronne en dentelle
d'argent posée au sommet de la tète lui donne bien l'air de la
Madone de l'Amour!
Fabien a fait de don Geritan, le vieux beau duelliste, un caractère
élégant et sympathique. Son costume de nuance tendre, tout
passementé et tout couvert de rubans, contraste comiquement avec
la personne longue, sèche, raide, longitudinale, rappelant le jeune
échassier. Malgré son ridicule, il aime la Reine, et se ferait bravement
tuer pour elle. Ruy Blas l'a bien jugé. Mademoiselle Broisat est la
plus gentille Casilda qui puisse égayer l'ennui d'une cour d'Espagne
et contre-balancer la soporifique influence d'un camarera-mayor.
Puisque nous parlons de la duchesse d'Albuquerque, disons que
Mademoiselle Ramelli est impatientante de vérité dans son rôle de
dragon en basquine noire; à chaque fois qu'elle tire le fil pour arrêter
par la patte l'essor de quelque fantaisie, on serait tenté, comme la
Reine de lui flanquer une paire de bons soufflets.
Madame Lambquin s'était chargée, sans la moindre coquetterie, de
représenter l'affreuse compagnonne—dont le menton fleurit et dont
le nez trognonne—. Il semble qu'elle ait été chercher son costume et
son type dans les caprichos de Goya, parmi des sorciers du collège
de Bozozona, dans les tias du Rasho et ces duègnes à gros chapelets
qui sous le porche des églises vous demandent l'aumône, d'abord
pour une vieille, ensuite pour une jeune.

XXIII

VERS DE VICTOR HUGO

13 juin 1843.
Victor Hugo, un de ces poètes que Dante appelle souverains et qu'il
place dans l'Élysée, une grande épée à la main comme des
guerriers, et qui réunit en lui deux qualités qui semblent d'abord
opposées l'une à l'autre, un lyrisme effréné et une miraculeuse
patience de ciselure dans l'exécution, a fait accomplir à la
versification un immense progrès qui a été pris pour une décadence
par certains esprits, judicieux sur d'autres points, lesquels
s'imaginent que les vers romantiques ne sont que de la prose plus
ou moins rimée, et que le vers droit, à période carrée, est beaucoup
plus difficile que le vers moderne. Déjà Lamartine avec ses grands
coups d'ailes, des élégances enchevêtrées comme des lianes en
fleur, ses larges périodes, ses vastes nappes de vers s'étalant comme
des fleuves d'Amérique, avait fait crever de toutes parts le vieux
moule de l'alexandrin; mais il restait encore beaucoup à faire.
Dans ses Orientales, Victor Hugo se plut à réunir un grand nombre
de formes de stances, ou entièrement neuves, ou restaurées des
vieux maîtres. Il revêtit son inépuisable fantaisie de tous les rythmes
et de toutes les mesures, il donna des exemples de tous les
entrecroisements et de tous les redoublements de rimes, et
reproduisit dans son œuvre l'ornementation mathématique et
compliquée de l'Orient. Son École, composée alors d'Alfred de Vigny,
de Sainte-Beuve, d'Alfred de Musset et d'Antony Deschamps,
auxquels d'autres vinrent bientôt s'adjoindre, chercha la richesse de
la rime, la variété de la coupe, la liberté de la césure, et trouva mille
charmants secrets de facture. Bien des mots exilés dans la prose
purent enfin rentrer dans les vers. L'exclusion systématique du mot
propre produit dans les poètes de l'École racinienne une tonalité
toute particulière; les terminaisons en er, en é, en eux, en ant et
able finissent presque tous les vers pseudo-classiques, ce qui n'a
rien d'étonnant, vu l'énorme consommation d'infinitifs et d'adjectifs à
laquelle oblige la périphrase.
On nous pardonnera ces réflexions qui ont pour but de faire
comprendre aux gens du monde que l'École romantique ne procède
pas à l'aventure. Ces vers brisés ou cassés, comme disent les
classiques dans leur aimable atticisme, exigent de longs travaux, de
patientes combinaisons, sont plus riches de rimes, plus sobres
d'inversions et de licences grammaticales, que les vers qu'ils
s'imaginent être des chefs-d'œuvre de pureté, parce qu'ils sont tout
simplement monotones.

XXIV

LE DRAME

30 juillet 1843.
Le drame a toujours eu beaucoup de mal à s'établir parmi nous.
Diderot, avec son Père de famille, Beaumarchais, avec son Eugénie,
ont trouvé nombre de contradictions.
Nanine, l'Enfant Prodigue, Mélanie, Céline, l'Écossaise, le Philosophe
sans le savoir, déplaisent également par ce mélange du comique, du
tempéré et du touchant, qui pourtant est le procédé même de la
nature.
Dans l'éloquente préface d'Eugénie, il faut voir avec quelle raison et
quelle puissance de dialectique Beaumarchais proclame la poétique
É
de l'École nouvelle, ce qui n'a pas empêché Victor Hugo d'écrire son
admirable préface de Cromwell. On avait à peu près alors accepté le
drame en prose en le flétrissant du nom de mélodrame; mais pour le
drame en vers, le travail était à recommencer.

XXV

REPRISE DE «MARION DELORME»

9 novembre 1839.
Constatons le succès qu'obtient en ce moment, à la Comédie-
Française, la reprise de Marion Delorme. Faire l'éloge de Marion
Delorme est maintenant chose superflue. Quatre-vingts
représentations et trois éditions successives valent le meilleur
panégyrique du monde. Ce beau drame réunit la gravité passionnée
de Corneille, et la folle allure des comédies romanesques de
Shakespeare; quelle variété de ton, quelle vivacité charmante et
castillane! Comme tous ces beaux seigneurs qui ne font que
traverser la pièce pour jeter l'éclair de leur épée et de leur esprit,
parlent bien la langue cavalière et superbe du XVIe siècle! Quel
sincère accent de comédie! Voyez! voyez ce Taillebras, ce
Scaramouche et ce Gracioso! Scarron lui-même, l'auteur de Japhet
d'Arménie et de Jodelet, ne les eût pas dessinés d'un trait plus vif et
plus libre. Et comme les larmes de Marion, perles divines du repentir,
ruissellent limpidement sur tous ces visages grimaçants ou terribles!
Quel charmant marquis que ce mauvais sujet de Gaspard de
Saverny! Quelle mâle, sévère et fatale figure que ce Didier de rien!
Marion Delorme est une des pièces de M. Hugo où l'on aime le plus
à revenir; c'est un roman, une comédie, un drame, un poème où
toutes les cordes de la lyre vibrent tour à tour.
XXVI

REPRISE DE MARION DELORME

1er décembre 1851.


On a repris vendredi dernier Marion Delorme, au théâtre de la
République. Le grand et beau drame qui a déjà la consécration du
temps, de romantique à l'époque où il s'est joué, est devenu
classique comme une tragi-comédie de Corneille ou de Rotrou. Il a
pris place, sans cesser d'être vivant, dans ces galeries de tableaux
de maîtres que le Théâtre-Français offre aux études des jeunes
générations; il a été écouté avec un religieux respect par ceux qui le
connaissent et par ceux qui l'ignoraient. On ne saurait guère rêver
pour jouer Marion Delorme, la courtisane Madeleine, une actrice plus
assortie à son rôle que Mademoiselle Judith; elle a la jeunesse, la
beauté, l'intelligence et la passion, les larmes et le sourire. Si elle
n'atteint pas certains côtés profonds et douloureux comme Madame
Dorval, en revanche elle fait mieux ressortir certaines faces du rôle
et l'éclairé autrement.
Jeffroy ne joue pas Louis XIII, c'est Louis XIII lui-même, ce roi qui
avait fait de l'ennui un art, presque une volupté, et qui oublia sa
couronne sur le front de la Mélancolie. Il est impossible d'être plus
terne, plus morne et plus éteint, plus souverainement accablé de ce
spleen royal, lourde chape de plomb qui double le manteau
d'hermine et dont nul ne sentit le poids comme ce pâle Louis, pas
même Philippe II à l'Escurial; pas-même Charles-Quint à Saint-Just.
Brindeau a donné au personnage de Saverny son éloquence
railleuse, et Maillard a bien rendu la physionomie passionnée,
douloureuse et fatale de Didier, ce type des Antony.

XXVII
Welcome to our website – the ideal destination for book lovers and
knowledge seekers. With a mission to inspire endlessly, we offer a
vast collection of books, ranging from classic literary works to
specialized publications, self-development books, and children's
literature. Each book is a new journey of discovery, expanding
knowledge and enriching the soul of the reade

Our website is not just a platform for buying books, but a bridge
connecting readers to the timeless values of culture and wisdom. With
an elegant, user-friendly interface and an intelligent search system,
we are committed to providing a quick and convenient shopping
experience. Additionally, our special promotions and home delivery
services ensure that you save time and fully enjoy the joy of reading.

Let us accompany you on the journey of exploring knowledge and


personal growth!

textbookfull.com

You might also like