Diccionario de inteligencia artificial (más de 250 términos y conceptos)

El Blog de Amalia López Acera

La inteligencia artificial es sin duda la tecnología que ha conseguido acaparar toda nuestra atención en los últimos dos años. Aunque sus inicios se remontan a la década de los 50 ha sido ahora cuando su conocimiento se ha extendido al público en general.

Cursos, talleres, jornadas, másters y congresos abordan diferentes aspectos y enfoques de la inteligencia artificial y así hemos ido incorporando a nuestro día a día nuevos conceptos y términos relacionados con esta disciplina.

Desde hace un tiempo he ido recabando aquellos conceptos con los que me topaba en las formaciones y lecturas que iba realizando y con otros que he encontrado y con todos ellos he hecho una recopilación que comparto contigo a modo de diccionario por si te sirve de ayuda. 

Aquí encontrarás más de 250 términos y conceptos relacionados con la inteligencia artificial y como verás alguno puede que esté repetido ya que son varias las formas en que los podemos encontrar.

Por ejemplo, tenemos el caso de “DeepMind” que es la empresa de inteligencia artificial que desarrolló AlphaGo, el primer programa que consiguió vencer al campeón mundial de Go. Pero también podrás encontrar este concepto por  “AlphaGo”, el programa de inteligencia artificial desarrollado por DeepMind, para que te sea más fácil encontrar lo que buscas.

También verás que he incorporado en algunos casos la denominación en inglés del término así como una explicación o ejemplo que facilite su comprensión.

Y sin más aquí te dejo este diccionario con más de 250 palabras sobre inteligencia artificial

  • A/B Testing: método de comparación de dos versiones de una variable para determinar cuál es más efectiva.
  • Activación de ReLU (Rectified Linear Unit): función de activación utilizada comúnmente en redes neuronales por su simplicidad y efectividad
  • Ajuste Fino (Fine-Tuning): proceso de ajustar un modelo pre entrenado en un nuevo conjunto de datos para una tarea específica.
  • Algoritmo: un conjunto de instrucciones paso a paso para realizar una tarea o resolver un problema. En IA, un algoritmo puede aprender de los datos para mejorar su ejecución.
  • Algoritmo de Clasificación: algoritmo que asigna una etiqueta a cada ejemplo de entrada.
  • Algoritmo de Máxima Verosimilitud: método para estimar los parámetros de un modelo que maximiza la probabilidad de observar los datos dados.
  • Algoritmo de Monte Carlo: algoritmo que utiliza técnicas de muestreo aleatorio para obtener resultados numéricos.
  • Algoritmo de Muestreo: algoritmo utilizado para generar muestras de una distribución de probabilidad.
  • Algoritmo del Perceptrón: algoritmo de aprendizaje supervisado utilizado para la clasificación binaria.
  • Algoritmo de Regresión: algoritmo que predice un valor continuo a partir de datos de entrada.
  • Algoritmo Genético: método de optimización que imita el proceso de selección natural.
  • AlphaGo: Programa de IA desarrollado por DeepMind que derrotó al campeón del mundo de Go.
  • Análisis de Clústeres: proceso de agrupar datos en grupos (clusters) de objetos similares.
  • Análisis de Componentes Principales (PCA): técnica estadística para simplificar la complejidad en conjuntos de datos de alta dimensión. El PCA se puede utilizar para tomar una foto de alta resolución y reducirla a una imagen más simple.
  • Análisis de Sentimientos: técnica de procesamiento del lenguaje natural para identificar emociones en textos.
  • Análisis Discriminante: técnica de reducción de dimensionalidad utilizada para clasificar datos.
  • Analítica Descriptiva: análisis de datos para entender qué ha ocurrido.
  • Analítica Predictiva: uso de modelos estadísticos y de aprendizaje automático para predecir eventos futuros.
  • Analítica Prescriptiva: uso de modelos para recomendar acciones basadas en datos.
  • API de IA: interfaz que permite a los desarrolladores integrar funcionalidades de IA en sus aplicaciones.
  • Aprendizaje Activo: estrategia donde la IA selecciona los datos de los que quiere aprender. El aprendizaje activo sería como el estudiante que elige qué libros leer para su proyecto.
  • Aprendizaje Automático (Machine Learning): subcampo de la IA que permite a las máquinas aprender de los datos sin ser explícitamente programadas. El aprendizaje automático utiliza algoritmos para identificar patrones en los datos.
  • Aprendizaje de Máquina Distribuido: uso de múltiples computadoras para entrenar modelos de IA. Similar a un grupo de científicos trabajando juntos en un gran proyecto.
  • Aprendizaje de Máquina Ensemble: uso de múltiples modelos de aprendizaje para obtener mejores predicciones que con un solo modelo. Un ensemble sería un equipo de expertos que trabajan juntos para resolver un problema.
  • Aprendizaje de Máquina Incremental: entrenamiento de un modelo de IA gradualmente con nuevos datos. Se podría equiparar a actualizar continuamente un libro de texto con nueva información.
  • Aprendizaje de Máquina Multimodal: aprendizaje de IA que utiliza múltiples tipos de datos, como texto, audio y video como si aprendiéramos de un libro que incluye imágenes, sonidos y texto.
  • Aprendizaje de Máquina Online: entrenamiento de modelos de IA en tiempo real a medida que llegan los datos. 
  • Aprendizaje de Máquina Probabilístico: enfoque de aprendizaje automático que utiliza modelos probabilísticos incluyendo la incertidumbre y la variabilidad en los datos.
  • Aprendizaje de Máquina Semi-Supervisado: combinación de datos etiquetados y no etiquetados en el entrenamiento de IA similar a aprender con algunos ejemplos con respuestas y otros sin ellas.
  • Aprendizaje de Máquina Transductivo: enfoque de aprendizaje automático que intenta predecir nuevas instancias directamente haciendo predicciones específicas para casos individuales.
  • Aprendizaje de Refuerzo Inverso: proceso donde la IA aprende observando y replicando comportamientos humanos. Imagina que es aprender a bailar viendo a un experto.
  • Aprendizaje de Representación: aprendizaje de IA que busca representaciones de datos que faciliten la extracción de información útil. Algo parecido a aprender a leer mapas para entender mejor la geografía.
  • Aprendizaje de Transferencia: aplicar conocimientos aprendidos en una tarea a una tarea diferente y es muy útil cuando hay datos limitados para una nueva tarea.
  • Aprendizaje Federado: entrenamiento de modelos de IA en múltiples dispositivos descentralizados; este entrenamiento federado mejora la privacidad al no compartir datos sensibles.
  • Aprendizaje Incremental: técnica de aprendizaje donde el modelo se actualiza continuamente a medida que se reciben nuevos datos.
  • Aprendizaje Multitarea: entrenamiento de un modelo de IA para realizar varias tareas al mismo tiempo.
  • Aprendizaje No Supervisado: método de aprendizaje donde la IA encuentra patrones en datos no etiquetados. El aprendizaje no supervisado es como aprender sin un maestro, solo con ejemplos.
  • Aprendizaje por Refuerzo: Tipo de aprendizaje donde la IA aprende a tomar decisiones a través de recompensas y castigos y es similar a entrenar a una mascota con golosinas.
  • Aprendizaje por Transferencia: uso de un modelo pre entrenado en una tarea como punto de partida para una nueva tarea.
  • Aprendizaje Profundo (Deep Learning): tipo de aprendizaje automático que utiliza redes neuronales con muchas capas. El aprendizaje profundo es efectivo para tareas complejas como la traducción automática.
  • Aprendizaje Profundo Estructurado: aprendizaje profundo que utiliza datos estructurados como grafos y sería similar a aprender patrones complejos en redes sociales.
  • Aprendizaje Q: tipo de aprendizaje por refuerzo que utiliza una función de valor para guiar las decisiones. Imagina que es aprender a elegir la mejor acción basada en experiencias pasadas.
  • Aprendizaje Semi-Supervisado: combinación de aprendizaje supervisado y no supervisado. El aprendizaje semi-supervisado utiliza una pequeña cantidad de datos etiquetados y una gran cantidad de datos no etiquetados.
  • Aprendizaje Supervisado: método de aprendizaje donde la IA se entrena con datos etiquetados. El aprendizaje supervisado sería como aprender con un maestro que proporciona las respuestas correctas.
  • Árbol de Decisión: modelo predictivo que mapea observaciones sobre un artículo a conclusiones sobre el objetivo del artículo. Los árboles de decisión son útiles para clasificar tipos de plantas o animales.
  • Arquitectura de IA: diseño estructural de sistemas de IA y equivaldría al plano de un edificio para un ingeniero.
  • Asistente Virtual Inteligente: software que puede realizar tareas o servicios para un individuo basado en comandos o preguntas. Es como tener un asistente personal en tu teléfono u ordenador.
  • Atención (Attention): mecanismo que permite al modelo enfocarse en partes específicas de los datos. Es como cuando prestas atención a una voz en una habitación ruidosa.
  • Atención Multi-Cabezal (Multi-Head Attention): técnica que permite al modelo enfocarse en diferentes partes de la entrada simultáneamente.
  • AUC (Área bajo la curva): métrica que resume el rendimiento de una curva ROC.
  • Aumento de Datos (Data Augmentation): técnica para incrementar el tamaño del dataset aplicando transformaciones a los datos existentes.
  • Autoencoder: tipo de red neuronal utilizada para aprender una representación comprimida de los datos. Un autoencoder es como un artista que trata de dibujar su propio retrato con menos detalles.
  • Automatización de Procesos: uso de tecnología para realizar tareas repetitivas sin intervención humana.
  • AutoML (Automated Machine Learning): automatización del proceso de aplicar aprendizaje automático a problemas reales. Es como tener un experto en IA que configura automáticamente el mejor modelo para tus datos.
  • Backpropagation: algoritmo utilizado para entrenar redes neuronales ajustando pesos en función de errores. Es como ajustar tu estrategia después de recibir retroalimentación sobre tu desempeño.
  • Bagging: técnica de ensemble que mejora la estabilidad y precisión de algoritmos de aprendizaje automático. Se podría equiparar a combinar las opiniones de un grupo de expertos para tomar una decisión.
  • Batch Normalization: técnica para mejorar la estabilidad y la velocidad de entrenamiento de las redes neuronales.
  • Bayesian Inference: método de inferencia estadística que utiliza el teorema de Bayes para actualizar la probabilidad de una hipótesis.
  • Bayesian Networks: modelos probabilísticos que representan variables y sus dependencias mediante un grafo acíclico dirigido.
  • Bayesian Optimization: algoritmo de optimización para ajustar hiper parámetros basado en el teorema de Bayes.
  • Benchmarking en IA: comparación del rendimiento de diferentes algoritmos de IA. Es como una competición para ver qué algoritmo resuelve un problema más eficientemente.
  • BERT (Bidirectional Encoder Representations from Transformers): modelo de lenguaje que utiliza transformers para generar representaciones contextuales.
  • Bias (Sesgo): tendencia o preferencia que resulta en juicios predecibles en un contexto de IA. El sesgo en los datos puede llevar a resultados injustos en los modelos de IA.
  • Big Data: grandes volúmenes de datos que requieren tecnologías avanzadas para ser procesados y analizados.
  • BigQuery: plataforma de análisis de datos de Google para grandes volúmenes de datos.
  • Boosting: método de ensemble que ajusta iterativamente el peso de los clasificadores. El boosting es como preguntarle a varios expertos, pero dando más importancia a los más acertados.
  • Bootstrapping: método estadístico que utiliza el remuestreo con reemplazo para estimar la distribución de una estadística.
  • Bosque Aleatorio (Random Forest): conjunto de árboles de decisión utilizados para mejorar la precisión predictiva. Un bosque aleatorio combina las predicciones de múltiples árboles de decisión.
  • Buscador de Mejor Primero (Best-First Search): algoritmo que expande el nodo más prometedor según una heurística.
  • Cadena de Markov: modelo estadístico que describe una secuencia de posibles eventos donde la probabilidad de cada evento depende solo del estado inmediatamente anterior. Las cadenas de Markov son como un juego de mesa donde cada movimiento depende solo del casillero actual.
  • Cadena de Suministro Automatizada: uso de IA para gestionar y optimizar la cadena de suministro.
  • Capa Oculta: capa de neuronas en una red neuronal que no es ni la entrada ni la salida. Las capas ocultas son como los procesos de pensamiento que ocurren en nuestra mente sin que seamos conscientes de ellos.
  • Capas de Red Neuronal: componentes de una red neuronal que procesan datos y realizan cálculos.
  • CatBoost: algoritmo de gradient boosting que maneja características categóricas de manera eficiente.
  • Chatbot: programa de ordenador diseñado para simular conversaciones con usuarios humanos. 
  • Clasificación: tarea de IA que asigna categorías a objetos o eventos. La clasificación es utilizada en filtros de correo no deseado para identificar mensajes spam.
  • Clasificador Bayesiano: algoritmo de clasificación basado en el teorema de Bayes. Los clasificadores bayesianos son como detectives que usan evidencia para actualizar la probabilidad de un sospechoso.
  • Clustering: agrupación de datos en subconjuntos basados en similitudes. El clustering es como organizar libros en una biblioteca según su género.
  • Codificación One-Hot: representación de variables categóricas como vectores binarios. La codificación one-hot es como tener interruptores de luz que representan diferentes categorías.
  • Concept Drift: cambio en la relación entre las variables de entrada y salida en el tiempo.
  • Conjunto de Datos: colección de datos procesados o sin procesar. Un conjunto de datos puede ser utilizado para entrenar modelos de IA.
  • Conjunto de Pruebas: datos utilizados para evaluar el rendimiento de un modelo de IA. El conjunto de pruebas es como un examen final después de un período de estudio.
  • Conjunto de Validación: datos utilizados para ajustar los parámetros de un modelo de IA. El conjunto de validación sería el ensayo general antes de la actuación principal.
  • Cross-Validation: técnica para evaluar el rendimiento de un modelo mediante la partición de los datos en varios subconjuntos y probando en cada uno.
  • Curva ROC: gráfico que muestra el rendimiento de un clasificador a medida que se varía el umbral de decisión.
  • Data Cleaning: proceso de detectar y corregir (o eliminar) datos corruptos o inexactos en un conjunto de datos.
  • Data Drift: cambio en la distribución de datos a lo largo del tiempo.
  • Data Lake: almacén centralizado que permite almacenar datos estructurados y no estructurados a cualquier escala.
  • Data Warehouse: sistema centralizado para almacenar y gestionar datos estructurados.
  • Dataset: conjunto de datos utilizado para entrenar, validar y probar modelos de IA.
  • Datos de Entrenamiento: conjunto de datos utilizados para enseñar a los algoritmos de IA a realizar tareas. Los datos de entrenamiento deben ser variados y amplios para construir un modelo robusto.
  • DeepMind: compañía de IA conocida por desarrollar AlphaGo, el primer programa en vencer al campeón mundial de Go.
  • Densidad: situación en la que la mayoría de los elementos de una matriz o vector no son cero.
  • Descenso de Gradiente Estocástico: variante del algoritmo de gradiente descendente que utiliza un subconjunto de datos. Se podría explicar como la búsqueda del camino más rápido hacia el fondo de un valle, pero con pasos más pequeños y aleatorios.
  • Descomposición de Tensor: técnica para descomponer un tensor en componentes más simples.
  • Despliegue de Modelos: proceso de poner en producción un modelo de aprendizaje automático.
  • Detección de anomalías: identificación de patrones raros o inusuales en los datos. La detección de anomalías es como encontrar una aguja en un pajar.
  • Diccionario de Características: conjunto de todas las características posibles que un modelo de IA puede utilizar. Un diccionario de características es como un glosario de términos que un modelo puede aprender.
  • Distancia Euclidiana: ,edida de la distancia “real” entre dos puntos en un espacio multidimensional. La distancia euclidiana es como medir la línea recta de dos lugares en un mapa.
  • Distribución Bernoulli: distribución de probabilidad para una variable binaria.
  • Distribución Binomial: distribución de probabilidad de la suma de variables de Bernoulli independientes.
  • Distribución de Poisson: distribución de probabilidad que describe el número de eventos que ocurren en un intervalo fijo de tiempo o espacio.
  • Distribución de Probabilidad: función que describe la probabilidad de ocurrencia de diferentes resultados posibles.
  • Distribución Normal: distribución de probabilidad que es simétrica y tiene forma de campana.
  • Dropout: técnica de regularización que desactiva aleatoriamente neuronas durante el entrenamiento para prevenir el overfitting.
  • Edge AI: implementación de IA directamente en dispositivos locales en lugar de en la nube.
  • Embeddings: representaciones de alta dimensionalidad de datos en un espacio de menor dimensión.
  • Encoder-Decoder: arquitectura utilizada en tareas de secuencia a secuencia, como la traducción automática.
  • Ensamblaje de Modelos: combinación de varios modelos de aprendizaje para mejorar el rendimiento. El ensamblaje de modelos es como formar un equipo de superhéroes donde cada uno aporta una habilidad única.
  • Ensemble Learning: técnica que combina múltiples modelos para mejorar el rendimiento.
  • Entrenamiento: proceso de ajustar los parámetros de un modelo de aprendizaje automático mediante datos.
  • Entropía: medida de incertidumbre o impureza en un conjunto de datos. La entropía en IA es como no estar seguro de qué plato elegir en un menú.
  • Espacio de Características: el entorno en el que las características de los datos existen y son modeladas. El espacio de características es como un universo donde cada estrella representa una característica de los datos.
  • Espacio Latente: representación de datos en un espacio de menor dimensión que captura las características esenciales.
  • Ética en IA: discusión y aplicación de principios morales en el desarrollo y uso de la IA. La ética en IA es crucial para asegurar que la tecnología se desarrolle de manera responsable.
  • Evaluación de Modelos: proceso de determinar la eficacia de un modelo de IA. La evaluación de modelos sería como otorgar una calificación a un estudiante basada en su desempeño en pruebas.
  • Exploración vs. Explotación: dilema en aprendizaje por refuerzo sobre si explorar nuevas estrategias o explotar las conocidas. 
  • Exploratory Data Analysis (EDA): enfoque para analizar datos para resumir sus características principales, a menudo utilizando métodos visuales.
  • Extracción de Características: proceso de transformar datos en bruto en un conjunto de características que pueden ser utilizadas para entrenar un modelo de IA. La extracción de características es cómo destilar los aspectos más importantes de una historia.
  • Extrapolación: método para estimar valores fuera del rango de un conjunto de datos conocido.
  • F1 Score: medida que combina precisión y recall en una sola métrica.
  • Feature Drift: cambio en la importancia relativa de las características a lo largo del tiempo.
  • Feature Engineering: proceso de usar el conocimiento del dominio para crear características que hagan que los algoritmos de aprendizaje automático funcionen mejor.
  • Feature Selection: proceso de seleccionar un subconjunto de características relevantes para el uso en el modelo.
  • Filtrado Colaborativo: técnica utilizada por sistemas de recomendación para predecir los intereses de un usuario basándose en las preferencias de muchos usuarios. El filtrado colaborativo es como pedir recomendaciones de libros a amigos con gustos similares.
  • Función de Activación: función matemática en una red neuronal que decide si una neurona debe activarse. La función de activación introduce no linealidad en el proceso de aprendizaje.
  • Función de Costo: medida de “error” de un modelo de IA, que indica qué tan lejos están las predicciones del modelo de los resultados reales.
  • Función de Pérdida: medida utilizada para evaluar si está funcionando bien un modelo de aprendizaje.
  • Fuzzy Logic (Lógica Difusa): forma de lógica que admite valores entre completamente verdadero y completamente falso. La lógica difusa es útil para sistemas de control que no son binarios.
  • Generalización: capacidad de un modelo de IA para funcionar bien con nuevos datos no vistos durante el entrenamiento. La generalización es importante para que la IA se adapte a situaciones del mundo real.
  • Generative Pre-training (GPT): técnica que pre entrena un modelo en una gran cantidad de datos antes de ajustarlo a una tarea específica.
  • GloVe: algoritmo para generar word embeddings a partir de estadísticas de co-ocurrencia.
  • GPT (Generative Pre-trained Transformer): serie de modelos de lenguaje basados en transformers pre-entrenados para generación de texto.
  • Gradient Boosting Machine (GBM): algoritmo que crea un modelo predictivo a partir de un conjunto de modelos débiles, normalmente árboles de decisión.
  • Gradiente Descendente: algoritmo de optimización utilizado para minimizar una función ajustando iterativamente sus parámetros. El gradiente descendente es como encontrar el camino más rápido hacia el fondo de un valle.
  • Grafos de Conocimiento: representaciones de información en forma de nodos y aristas que capturan relaciones entre entidades.
  • Hadoop: framework de software que permite el procesamiento distribuido de grandes conjuntos de datos.
  • Heurística: técnica de resolución de problemas que utiliza métodos prácticos y no perfectos.
  • Hiper Parámetro: parámetro de un algoritmo de aprendizaje que se establece antes del proceso de aprendizaje. Ajustar hiper parámetros es clave para mejorar el rendimiento de un modelo de IA.
  • Holdout Method: técnica de validación donde se entrena el modelo en una parte de los datos y se prueba en otra parte.
  • Hyperparameter Tuning: proceso de ajuste de hiper parámetros de un modelo para encontrar la configuración óptima.
  • Inferencia Bayesiana: método de inferencia estadística que actualiza la probabilidad de una hipótesis a medida que se obtiene más evidencia. La inferencia bayesiana es como ajustar una creencia con nueva información.
  • Inteligencia Artificial (IA): área de la informática que se dedica a crear sistemas capaces de realizar tareas que requieren inteligencia humana.
  • Inteligencia Artificial Débil (IA Débil): sistemas de IA diseñados para realizar una tarea específica. Los asistentes virtuales son un ejemplo de IA débil.
  • Inteligencia Artificial General (IAG): tipo de IA con la habilidad de comprender, aprender y aplicar conocimientos en una amplia variedad de tareas. La IAG es aún un objetivo a largo plazo para los investigadores.
  • Internet de las Cosas (IoT): red de dispositivos físicos conectados que pueden intercambiar datos.
  • Interpolación: método para estimar valores dentro del rango de un conjunto de datos conocido.
  • K-Means: algoritmo de clusterización que agrupa datos en K clusters.
  • K-Nearest Neighbors (K-NN): algoritmo que clasifica una instancia basándose en los K ejemplos más cercanos en el espacio de características.
  • Latent Dirichlet Allocation (LDA): algoritmo de aprendizaje no supervisado utilizado para descubrir temas en grandes conjuntos de datos de texto.
  • LightGBM: algoritmo de gradient boosting diseñado para ser eficiente en cuanto a velocidad y uso de memoria.
  • Mapa Auto-Organizado (SOM): tipo de red neuronal utilizada para la reducción de dimensionalidad y la visualización de datos.
  • Máquina de Boltzmann: tipo de red neuronal estocástica que utiliza mecánica estadística para el aprendizaje.
  • Máquina de Soporte Vectorial (SVM): modelo de aprendizaje supervisado utilizado para clasificación y regresión. La SVM es efectiva para separar datos complejos en categorías.
  • Matriz de Confusión: tabla que describe el rendimiento de un modelo de clasificación.
  • Mecanismo de Self-Attention: técnica utilizada en transformers para calcular la atención sobre sí misma.
  • Metaaprendizaje: técnica de aprendizaje automático que enseña a un modelo cómo aprender.
  • Método de Gradiente: técnica de optimización que ajusta los parámetros del modelo siguiendo la dirección del gradiente.
  • Minería de Datos (Data Mining): proceso de descubrir patrones en grandes conjuntos de datos. La minería de datos es fundamental en la toma de decisiones basada en datos.
  • MLOps: conjunto de prácticas que une el desarrollo y la operación de modelos de aprendizaje automático.
  • Model Drift: pérdida de rendimiento de un modelo debido a cambios en la distribución de datos.
  • Model Tuning: ajuste de los hiper parámetros de un modelo para mejorar su rendimiento.
  • Modelo de Bagging: técnica de ensemble que entrena múltiples modelos independientes y promedia sus predicciones.
  • Modelo de Boosting: técnica de ensemble que entrena modelos secuenciales, cada uno corrigiendo los errores del anterior.
  • Modelo de Dirichlet: distribución de probabilidad sobre distribuciones de probabilidad.
  • Modelo de IA: representación matemática de lo que la IA ha aprendido. Un modelo de IA puede predecir resultados futuros basados en datos previos.
  • Modelo de Mezcla Gaussiana (GMM): modelo probabilístico que asume que los datos se generan a partir de una mezcla de distribuciones gaussianas.
  • Modelo Discriminativo: modelo que clasifica muestras de datos en categorías predefinidas.
  • Modelo Generativo: modelo que genera nuevas muestras de datos similares a las del conjunto de datos original.
  • Modelo Oculto de Markov (HMM): modelo estadístico que describe sistemas con estados ocultos.
  • Modelo Predictivo: modelo utilizado para predecir valores futuros basándose en datos históricos.
  • Modelos Jerárquicos: modelos que tienen una estructura de árbol para capturar dependencias jerárquicas entre variables.
  • Modelos Latentes: modelos que incluyen variables no observables que explican las relaciones en los datos observados.
  • Motor de Inferencia: componente de un sistema de IA que realiza deducciones a partir de un conjunto de reglas y hechos.
  • Muestreo de Gibbs: algoritmo de muestreo que genera secuencias de muestras de la distribución conjunta de dos o más variables.
  • Optimización: proceso de hacer un sistema o modelo lo más efectivo o funcional posible.
  • Overfitting: fenómeno donde un modelo se ajusta demasiado a los datos de entrenamiento y tiene un rendimiento pobre en datos nuevos.
  • Parámetro del Modelo: valor ajustado durante el entrenamiento del modelo.
  • Perceptrón: tipo más simple de red neuronal artificial. El perceptrón puede realizar tareas de clasificación simples.
  • Plataformas de IA (AI Platforms): herramientas y servicios que facilitan el desarrollo y despliegue de modelos de IA.
  • Principal Component Analysis (PCA): técnica de reducción de dimensionalidad que transforma datos a un nuevo espacio de características.
  • Probabilidad A Priori: probabilidad inicial de una hipótesis antes de observar los datos.
  • Probabilidad Posterior: probabilidad de una hipótesis después de observar los datos.
  • Procesamiento del Lenguaje Natural (PLN): rama de la IA que se enfoca en la interacción entre computadoras y humanos a través del lenguaje natural. El PLN permite que los asistentes virtuales comprendan y respondan a las preguntas en lenguaje humano.
  • Proceso Gaussiano: proceso estocástico donde cualquier conjunto finito de variables aleatorias tiene una distribución normal multivariada.
  • Propagación de Restricciones (Constraint Propagation): técnica para reducir el espacio de soluciones en problemas de satisfacción de restricciones.
  • PyTorch: biblioteca de código abierto para el aprendizaje automático desarrollada por Facebook.
  • Random Forest: algoritmo de ensemble que utiliza múltiples árboles de decisión.
  • Razonamiento Basado en Casos (CBR): técnica que resuelve nuevos problemas adaptando soluciones de problemas similares ya resueltos.
  • Recall (Sensibilidad): proporción de verdaderos positivos entre los positivos reales en el conjunto de datos.
  • Recomendador Basado en Contenido: sistema de recomendación que sugiere elementos similares a los que le han gustado al usuario.
  • Recomendador Colaborativo: sistema de recomendación que sugiere elementos basándose en las preferencias de otros usuarios similares.
  • Reconocimiento de Voz: tecnología que convierte el habla en texto.
  • Red Bayesiana: modelo probabilístico que representa un conjunto de variables y sus dependencias condicionales mediante un grafo dirigido acíclico.
  • Red de Memoria: modelo que utiliza una memoria externa para almacenar y recuperar información.
  • Red Generativa: red que puede generar nuevos datos similares a los datos de entrenamiento.
  • Red GRU (Gated Recurrent Unit): variante de LSTM que utiliza menos parámetros.
  • Red LSTM (Long Short-Term Memory): tipo de red neuronal recurrente que puede aprender dependencias a largo plazo.
  • Red Neuronal: modelo computacional diseñado para simular la manera en que el cerebro humano procesa la información.Las redes neuronales son fundamentales en el reconocimiento de imágenes.
  • Red Neuronal Artificial (Artificial Neural Network): un modelo computacional inspirado en el cerebro humano, compuesto por capas de nodos (neuronas) que procesan información.
  • Red Neuronal CapsNet: modelo que utiliza cápsulas para preservar la jerarquía espacial entre las características.
  • Red Neuronal Convolucional (CNN): tipo de red neuronal profunda comúnmente utilizada en el procesamiento de imágenes. Las CNN son efectivas en la identificación de objetos en imágenes.
  • Red Neuronal Feedforward: tipo de red neuronal donde la información solo se mueve hacia adelante.
  • Red Neuronal Recurrente (RNN): tipo de red neuronal que es efectiva para procesar secuencias de datos, como el lenguaje. Las RNN son útiles para predecir la próxima palabra en una oración.
  • Red Neuronal Siamese: tipo de red que utiliza dos o más redes idénticas para comparar entradas y aprender similitudes.
  • Red Residual (ResNet): tipo de red neuronal que utiliza conexiones residuales para entrenar redes muy profundas.
  • Red Transformer: arquitectura basada en el mecanismo de atención, utilizada principalmente en procesamiento del lenguaje natural.
  • Redes Generativas Antagónicas (GAN): tipo de red neural que involucra dos redes que compiten entre sí para generar datos realistas.
  • Reducción de Dimensionalidad: técnicas para reducir el número de variables en un conjunto de datos.
  • Refuerzo Negativo: en aprendizaje por refuerzo, es una señal que indica que la acción tomada no es deseable. El refuerzo negativo ayuda a la IA a aprender de sus errores.
  • Refuerzo Positivo: en aprendizaje por refuerzo, es una señal que indica que la acción tomada es deseable. El refuerzo positivo motiva a la IA a repetir acciones correctas.
  • Regresión: tipo de análisis predictivo que estima la relación entre variables La regresión es común en la predicción de precios de viviendas.
  • Regresión Elástica: combina las penalizaciones de ridge y lasso para la selección de características y regularización.
  • Regresión Lasso: variante de la regresión lineal que utiliza una penalización para reducir la cantidad de características.
  • Regresión Lineal: técnica de modelado que asume una relación lineal entre variables independientes y dependientes.
  • Regresión Logística: técnica de modelado para problemas de clasificación binaria.
  • Regresión Ridge: variante de la regresión lineal que incluye una penalización para evitar el overfitting.
  • Regularización: técnica utilizada para evitar el overfitting añadiendo una penalización a la función de pérdida.
  • Regularización L1: técnica que añade una penalización proporcional a la suma de los valores absolutos de los parámetros.
  • Regularización L2: técnica que añade una penalización proporcional a la suma de los cuadrados de los parámetros.
  • Reinforcement Learning (RL): método de entrenamiento donde un agente aprende a tomar decisiones a través de la interacción con su entorno y la retroalimentación en forma de recompensas o castigos.
  • Robótica: Integración de la IA con máquinas físicas que pueden realizar tareas en el mundo real.La robótica avanzada utiliza IA para mejorar la autonomía de los robots.
  • RPA (Robotic Process Automation): tecnología que permite automatizar tareas repetitivas mediante software.
  • Simulación: uso de modelos para imitar el comportamiento de un sistema real.
  • Simulated Annealing: algoritmo de optimización que simula el proceso de enfriamiento del metal para encontrar soluciones óptimas.
  • Síntesis de Voz (Text-to-Speech): tecnología que convierte texto en voz hablada.
  • Sistema de Recomendación: algoritmo que sugiere productos o contenidos a los usuarios basándose en sus preferencias.
  • Sistemas Expertos: sistemas de IA que emulan la toma de decisiones de un experto humano.
  • Sobreajuste (Overfitting): cuando un modelo de IA aprende demasiado bien los datos de entrenamiento, incluyendo el ruido y las excepciones. El sobreajuste reduce la capacidad del modelo para funcionar bien con nuevos datos.
  • Spark: motor de análisis de datos rápido y de propósito general.
  • Sparsity: Situación en la que la mayoría de los elementos de una matriz o vector son cero.
  • Subajuste (Underfitting): cuando un modelo de IA no logra capturar la estructura subyacente de los datos. El subajuste puede ser el resultado de un modelo demasiado simple.
  • Support Vector Machine (SVM): algoritmo de clasificación que encuentra el hiperplano óptimo para separar clases.
  • Tensor: estructura de datos utilizada en algoritmos de aprendizaje profundo. Los tensores son como contenedores multidimensionales para números.
  • TensorFlow: biblioteca de código abierto para el aprendizaje automático desarrollada por Google.
  • Teorema de Bayes: fórmula que describe la relación entre la probabilidad condicional y marginal de eventos aleatorios.
  • Teoría de la Información: estudio de la cuantificación, almacenamiento y comunicación de información.
  • Test Set: subconjunto de datos utilizado para evaluar el rendimiento final de un modelo.
  • Tokenización: proceso de dividir texto en unidades más pequeñas como palabras o subpalabras.
  • Transferencia de Aprendizaje: técnica donde un modelo entrenado en una tarea se utiliza como punto de partida para otra tarea.
  • Transformers: modelo de aprendizaje profundo utilizado principalmente para el procesamiento del lenguaje natural.
  • Underfitting: fenómeno donde un modelo no captura adecuadamente las relaciones en los datos de entrenamiento.
  • Validación: proceso de evaluar el rendimiento de un modelo de IA con un conjunto de datos separado del entrenamiento. La validación ayuda a garantizar que el modelo funcione bien en el mundo real.
  • Validación Cruzada: técnica para evaluar la capacidad de generalización de un modelo estadístico. La validación cruzada es esencial para evitar el sobreajuste en los modelos de IA.
  • Validation Set: subconjunto de datos utilizado para ajustar los hiperparámetros de un modelo.
  • Vector de Características: conjunto de atributos numéricos que representan un objeto para un modelo de IA. Un vector de características es como una huella digital de datos para la IA.
  • Visión por Computadora: campo de la IA que permite a las máquinas interpretar y comprender el contenido visual. La visión por computadora es clave en sistemas de seguridad y vehículos autónomos.
  • Word Embeddings: representaciones vectoriales de palabras que capturan su significado.
  • Word2Vec: técnica para crear word embeddings mediante redes neuronales.
  • XGBoost: implementación eficiente del algoritmo de gradient boosting.

__________________________________

Descubre cómo potenciar tu carrera en la administración pública

El mundo de la administración pública puede ser apasionante y desafiante a la vez. Para ayudarte a alcanzar todo tu potencial y tener un impacto mayor, aquí tienes una serie de recursos que te serán de utilidad.

  1. 📋 Guía para elaborar un plan de comunicación en la administración pública: ¿Necesitas dar un impulso a la comunicación en tu ayuntamiento o administración pública? La «Guía para elaborar un plan de comunicación en una administración pública» es tu aliada perfecta. Descubre estrategias efectivas para transmitir tus mensajes de manera clara y efectiva.
  2. 🚀 Marca personal en la administración pública: ¿Quieres destacar en tu carrera? La «Marca personal en las administraciones públicas» te enseñará a construir tu propia marca y a crear nuevas oportunidades profesionales. Potencia tu presencia y deja una huella duradera.
  3. 📩 Boletín semanal con todas las novedades en redes sociales y comunicación: Mantente al día con las últimas tendencias en marketing digital, redes sociales y comunicación suscribiéndote al Boletín de novedades de redes sociales y comunicación». Información fresca y relevante directamente en tu bandeja de entrada. Ya he enviado 95 boletines y están suscritas casi 2.000 personas.
  4. 🎙️ Descubre las entrevistas de #30minutos en la administración pública: ¿Quieres conocer las voces destacadas en la administración pública? No te pierdas el espacio de entrevistas #30minutos. Obtén información sobre los líderes de hoy y las ideas que están impulsando el cambio. ¡Tú podrías ser el próximo protagonista! Más de 88 personas ya han pasado por #30minutos aprovecha para descubrirlas. Puedes descubrirlas en vídeo en los canales de  YouTube y Twitch; y en formato podcast en Ivoox, Apple podcast, Spotify Google Podcast.
  5. 📱 Canal de WhatsApp. He abierto un canal de WhatsApp donde publico ahí las entradas de este blog y también comparto información sobre jornadas, eventos, consejos, libros y novedades que tengan que ver con redes sociales, comunicación digital, inteligencia artificial y administración pública.

También te invito a que me puedas seguir en estos otros canales:

📺 YouTube 🎮 Twitch 📱 Tik Tok 📨 Telegram 🐦 Twitter 📷 Instagram 💼 LinkedIn 📌 Pinterest 📘 Facebook 🎧 Podcasts en Ivoox, Apple Podcasts, Spotify y Google Podcasts 🌐 Novagob



También te puede interesar...

No hay Comentarios

Escribe tu comentario
Yo, Amalia López Acera, solicito su consentimiento gestionar tus datos para contestar a las cuestiones planteadas a través de este formulario y/o suscribirse a la newsletter. La legitimación tiene como base jurídica el consentimiento del interesado para los fines expresados. Los datos no se cederán a terceros salvo en los casos en que exista una obligación legal. En todo caso, los datos que nos facilitas están ubicados en servidores cuya sede se encuentra dentro del territorio de la UE o gestionados por Encargados de Tratamiento acogidos al acuerdo “Privacy Shield”. Tiene derecho a acceder, rectificar y suprimir los datos, así como otros derechos, como se explica en la información adicional.

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Amalia Lopez Acera - Suscribete

Obtén la mejor información en Redes Sociales y Marca Personal en Administraciones Públicas

Privacidad

You have Successfully Subscribed!

Pin It on Pinterest

Share This