Self-Attention
ArquitecturaMecanismo donde cada posición de una secuencia atiende a todas las demás posiciones de la misma secuencia.
19 términos que empiezan por "S"
Mecanismo donde cada posición de una secuencia atiende a todas las demás posiciones de la misma secuencia.
Aprendizaje donde el modelo genera sus propias etiquetas a partir de los datos (ej: predecir palabras ocultas).
Autoencoder que aprende representaciones dispersas de activaciones neuronales. Usado para encontrar features monosemánticas en redes neuronales y mejorar la interpretabilidad de modelos.
Medida de cuán relacionados están dos textos en significado. Los embeddings permiten calcularla con distancia coseno.
Tokenizador independiente del idioma que aprende subpalabras directamente del texto sin preprocesamiento.
Determinar la polaridad emocional (positivo, negativo, neutro) de un texto. Aplicado en redes sociales, reseñas, etc.
Sequence-to-Sequence. Arquitectura que transforma una secuencia de entrada en una secuencia de salida (traducción, resumen).
Tarea de asignar una etiqueta a cada token de una secuencia. Incluye NER y POS tagging.
Las dos caras del signo lingüístico según Saussure: Significante es la imagen acústica/forma, Significado es el concepto mental.
Unidad básica del lenguaje formada por la unión arbitraria de un significante y un significado.
Unidad de organización de los sonidos del habla. Estructura básica: ataque, núcleo y coda.
Estudio de la lengua en un momento específico del tiempo, sin considerar su historia.
Grupo de palabras que funciona como una unidad sintáctica alrededor de un núcleo (ej: "la casa roja" es un sintagma nominal).
Disciplina que estudia cómo se combinan las palabras para formar oraciones gramaticales y las reglas que gobiernan estas combinaciones.
Función que convierte un vector de scores en una distribución de probabilidad. Usada en la capa final de clasificación.
Reducir palabras a su raíz cortando sufijos (ej: "corriendo" → "corr"). Más simple y menos preciso que lematización.
Palabras muy frecuentes (el, la, de, y) que a menudo se eliminan en preprocesamiento por ser poco informativas.
Unidad de tokenización intermedia entre caracteres y palabras. Permite manejar palabras raras dividiéndolas.
Generar resúmenes concisos de textos largos. Puede ser extractiva (seleccionar oraciones) o abstractiva (generar nuevo texto).