4. Que es word2vec?
Es un modelo matemático desarrollado por el equipo de investigación
sobre análisis lingüístico de Google y liderado por Tomas Mikolov y
publicado en 2013.
En dos líneas:
Word2vec se encarga de representar cada una de las palabras del
vocabulario de un texto en un espacio vectorial de N-Dimensiones.
Paper google:
(https://papers.nips.cc/paper/5021-distributed-representations-of-words-and-phrases-and-th
eir-compositionality.pdf)
5. Literalmente ¿que hace word2vec?
Cuando el modelo proyecta el vocabulario sobre el espacio
N-dimensional intenta dejar cerca todas las palabras que aparecen
en el mismo contexto.
coche
moto casa
cocina
baño
parque
cine
árbol
10. Red neuronal -Entrada: Vector con los valores de la palabra que
estamos tratando (skip-gram ,CBOW)
-Salida: Vector de las palabras relacionadas con el
vector de entrada dependiendo del modelo de
input utilizado (skip-gram, CBOW)