dbo:abstract
|
- ELMo ("Embeddings from Language Model") is a word embedding method for representing a sequence of words as a corresponding sequence of vectors. Character-level tokens are taken as the inputs to a bi-directional LSTM which produces word-level embeddings. Like BERT (but unlike the word embeddings produced by "Bag of Words" approaches, and earlier vector approaches such as Word2Vec and GloVe), ELMo embeddings are context-sensitive, producing different representations for words that share the same spelling but have different meanings (homonyms) such as "bank" in "river bank" and "bank balance". It was created by researchers at the Allen Institute for Artificial Intelligence and University of Washington. (en)
- ELMo — це одна з систем вкладання слів для представляння слів та фраз як векторів. Лексеми рівня символів беруть як входи до двоспрямованої ДКЧП, що виробляє вкладення рівня слів. Як і BERT (але на відміну від вкладень слів, які виробляють підходи «торби слів» та раніші векторні підходи, такі як word2vec та GloVe), вкладання ELMo є чутливими до контексту, виробляючи відмінні представлення для слів, що мають однакове написання, але різні значення (омоніми), такі як англ. bank у англ. river bank (річковий берег) та англ. bank balance (банківський залишок). Її побудував та підтримує . (uk)
|
dbo:wikiPageID
| |
dbo:wikiPageLength
|
- 1487 (xsd:nonNegativeInteger)
|
dbo:wikiPageRevisionID
| |
dbo:wikiPageWikiLink
| |
dbp:wikiPageUsesTemplate
| |
dct:subject
| |
rdf:type
| |
rdfs:comment
|
- ELMo — це одна з систем вкладання слів для представляння слів та фраз як векторів. Лексеми рівня символів беруть як входи до двоспрямованої ДКЧП, що виробляє вкладення рівня слів. Як і BERT (але на відміну від вкладень слів, які виробляють підходи «торби слів» та раніші векторні підходи, такі як word2vec та GloVe), вкладання ELMo є чутливими до контексту, виробляючи відмінні представлення для слів, що мають однакове написання, але різні значення (омоніми), такі як англ. bank у англ. river bank (річковий берег) та англ. bank balance (банківський залишок). Її побудував та підтримує . (uk)
- ELMo ("Embeddings from Language Model") is a word embedding method for representing a sequence of words as a corresponding sequence of vectors. Character-level tokens are taken as the inputs to a bi-directional LSTM which produces word-level embeddings. Like BERT (but unlike the word embeddings produced by "Bag of Words" approaches, and earlier vector approaches such as Word2Vec and GloVe), ELMo embeddings are context-sensitive, producing different representations for words that share the same spelling but have different meanings (homonyms) such as "bank" in "river bank" and "bank balance". (en)
|
rdfs:label
| |
owl:sameAs
| |
prov:wasDerivedFrom
| |
foaf:isPrimaryTopicOf
| |
is dbo:wikiPageDisambiguates
of | |
is dbo:wikiPageWikiLink
of | |
is foaf:primaryTopic
of | |