pec 01

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384
Across
  1. 5. En los sistemas expertos, se trata de un valor que no se puede calcular con una consulta. Muchos sistemas expertos pueden adaptarse a la incertidumbre, permiten al usuario indicar si no sabe la respuesta.
  2. 6. señal eléctrica o fisiológica que se origina en un organismo vivo, como un ser humano. Estas señales pueden incluir la actividad eléctrica del cerebro (electroencefalograma, EEG), la actividad eléctrica del corazón (electrocardiograma, ECG), señales de electromiografía (EMG) que miden la actividad muscular, entre otras
  3. 16. Estudio de técnicas que pueden predecir el comportamiento del usuario cuando éste interacciona con la web.
  4. 17. Es una técnica no invasiva utilizada para medir cambios en el volumen de un órgano o tejido, especialmente en relación con el flujo sanguíneo. En particular, la fotopletismografía se utiliza comúnmente para medir la variación en el volumen sanguíneo en los vasos sanguíneos periféricos, como los dedos, la muñeca o el lóbulo de la oreja.
  5. 19. Son consideradas aquellas páginas web que enlazan a webs de la misma temática a su vez autoridades en esa particular temática.
  6. 23. Proceso de deducción a partir del encadenamiento (hacia delante o hacia atrás) de reglas basadas en la información disponible con objetivo de generar conclusiones.
  7. 24. Acrónimo de "Sample, Explore, Modify, Model and Assess", el cual se refiere a un proceso alternativo para proyectos de minería de datos propuesto por el instituto SAS.
  8. 26. Es una tecnología utilizada para medir distancias y generar mapas tridimensionales del entorno utilizando pulsos de luz láser.
  9. 27. Es la cantidad más reducida de una señal que tiene que existir para que sea advertida por un sistema
  10. 28. Adaline es una red neuronal de una sola capa con múltiples nodos donde cada nodo acepta múltiples entradas y genera una salida. Dadas las siguientes variables como:
  11. 29. Proceso de descubrir relaciones intrínsecas de los datos web, los cuáles son expresados en forma de texto, enlaces o uso de la información.
  12. 35. Es una prueba médica no invasiva que registra la actividad eléctrica del corazón. Es una herramienta importante para evaluar la salud del corazón y diagnosticar posibles problemas cardíacos.
  13. 39. Datos sobre datos. En un almacén de datos, los metadatos describen el contenido de un almacén de datos y su manera de uso.
  14. 40. Relativa a una red neuronal artificial. Es una capa situada entre las capas de entrada y de salida que sirve de comunicación entre ambas. Se encarga de realizar el procesamiento de la información, tomando un conjunto de entradas ponderadas y produciendo una salida a través de una función de activación. Esto es, realizan el procesamiento no lineal de los patrones recibidos.
  15. 42. Part-Of-Speech tagging, también conocido como POST y en español como Etiquetado Gramatical. Es el proceso de asignar o etiquetar a cada una de las palabras de un texto su categoría gramatical (sustantivo, verbo, adjetivo, etc).
  16. 43. Palabra o conjunto de palabras extraido directamente de un corpus por medios de procesado de lenguaje natural
  17. 46. Es aquel operador que realiza pequeñas modificaciones en el cromosoma. Esto permite prevenir la saturación de la población con cromosomas similares, pudiendo obtener soluciones inalcanzables que con el operador de sobrecruzamiento.
  18. 50. En el contexto de Algoritmos Genéticos, consiste en forzar la selección de las mejores soluciones para evolucionar a través de las generaciones.
  19. 52. El análisis de curvas constituye un método estadístico para determinar la exactitud diagnóstica de las pruebas, siendo utilizadas con tres propósitos específicos: determinar el punto de corte de una escala continua en el que se alcanza la sensibilidad y especificidad más alta, evaluar la capacidad discriminativa del test diagnóstico, es decir, su capacidad de diferenciar sujetos sanos versus enfermos.
  20. 53. Proceso o evento que es aleatorio o que tiene un elemento de incertidumbre. En el contexto de la inteligencia artificial y el aprendizaje automático, se utiliza para describir algoritmos o métodos que incorporan elementos de azar o incertidumbre en su funcionamiento.
  21. 54. Una sub-rama de la Inteligencia artificial utilizada en computación lingüística. Su función es extraer información significativa de textos de lenguaje humano para que pueda posteriormente analizarse, por lo que son una herramienta muy útil en el contexto de Text Mining.
  22. 56. Medida utilizada para evaluar la importancia de una palabra o término en un corpus de documentos. Se utiliza en conjunto con la técnica de ponderación TF-IDF (Term Frequency-Inverse Document Frequency) para identificar las palabras clave más relevantes en un documento o conjunto de documentos.
  23. 58. Proceso no trivial que identifica patrones válidos, previamente desconocidos, potencialmente útiles y fundamentalmente entendibles en los datos.
  24. 59. Proceso de conexión entre neuronas que permite la transmisión de información entre ellas. En las redes de neuronas artificiales, representan el aprendizaje de dicha red mediante la asignación de pesos.
  25. 60. Son algoritmos donde se proporcionan al algoritmo de inteligencia artificial un conjunto de datos etiquetados. Esto significa que cada ejemplo en el conjunto de datos tiene una etiqueta o clase asociada. El objetivo del algoritmo de aprendizaje es aprender una función que pueda mapear correctamente las características de entrada a las etiquetas correspondientes
  26. 63. La computación afectiva es el estudio y el desarrollo de sistemas y dispositivos que pueden reconocer, interpretar, procesar y estimular las emociones humanas. Es un campo interdisciplinario que abarca la ciencia, la psicología y la ciencia cognitiva de la computación.
  27. 68. Se refieren a los parámetros ajustables en una red neuronal o modelo de aprendizaje automático. Son valores numéricos que se asignan a las conexiones entre las neuronas o nodos en una red neuronal artificial. Estos pesos determinan la fuerza de las conexiones entre las neuronas y son esenciales para que la red pueda aprender y realizar tareas específicas.
  28. 69. Métrica que mide el grado de incertidumbre o aleatoriedad en un conjunto de datos. Si todos los datos de un subconjunto pertenecen a la misma clase, entonces no hay incertidumbre o aleatoriedad en ese conjunto de datos, y por lo tanto la entropía es cero.
  29. 71. Persona con alto nivel de habilidades que la capacitan para realizar juicios en su área.
  30. 72. Una iteración completa a través de un conjunto de datos de entrenamiento durante el proceso de entrenamiento de un modelo de machine learning o deep learning. En cada epoch, el modelo pasa por todo el conjunto de datos de entrenamiento una vez, calcula las salidas previstas (predicciones) y ajusta sus parámetros (pesos) en función de la diferencia entre las predicciones y los valores reales (etiquetas).
  31. 73. Es el conjunto de los valores de los parámetros que intentan dar solución al problema a resolver. El diseño del cromosoma es específico para cada problema. Los valores de los parámetros que definen al individuo o solución se pueden representar dentro del cromosoma de diversas formas.
  32. 75. Es conocida como web (www). Es un gigantesco repositorio de datos donde hay información sobre cualquier tema. Podría considerarse como el repositorio de datos y texto más grande del mundo y además crece en grandes dimensiones cada día.
  33. 76. Es el estudio de las relaciones entre páginas web a través de los enlaces. Se dedica a analizar cómo está interconectada la red de páginas web de tal manera que estas se entienden como nodos y a su vez los enlaces se entienden como nexos de un nodo a otro, como si de un grafo se tratara. Gracias a esta estructura de grafo pueden aplicarse algoritmos como Dijkstra para hallar el camino más rápido de una web a otra.
  34. 78. Son declaraciones lógicas que describen el conocimiento y las pautas que el sistema experto utiliza para llegar a conclusiones o recomendaciones. Son sentencias del tipo SI (condición) ENTONCES (acción).
  35. 79. Es una prueba médica no invasiva que se utiliza para registrar la actividad eléctrica del cerebro. Es una herramienta importante en el diagnóstico de trastornos neurológicos y el estudio de la actividad cerebral en diversas situaciones.
  36. 80. ajustar la distribución de clases en un conjunto de datos para que todas las clases tengan un número similar de ejemplos, lo que ayuda a mejorar el rendimiento de los modelos de aprendizaje automático en tareas de clasificación.
  37. 82. Proceso de extracción de información útil del contenido de páginas web, tanto texto, imágenes, vídeo, audio, listas o tablas. En este campo podemos encontrar técnicas de otros enfoques como son la Recuperación de la Información (IR) o el Procesado de Lenguaje Natural (NLP).
  38. 83. El análisis de la secuencia de clicks (recorrido) que realiza un determinado usuario en la web.
  39. 84. Conocimiento informal y juicioso de un área de aplicación que constituye las reglas del buen juicio en ese campo. La heurística también abarca el conocimiento de cómo resolver problemas de manera eficiente y eficaz, cómo planificar pasos para resolver un problema complejo, cómo mejorar el rendimiento, etc.
Down
  1. 1. Es una rama de la Inteligencia Artificial que se basa en la teoría de síntesis evolutiva moderna. Integra tres conceptos básicos de la evolución biológica: la selección, la herencia y la variación. Estos tres conceptos dan lugar a un algoritmo que realiza un proceso de búsqueda.
  2. 2. Información sobre algo concreto que permite su conocimiento exacto o sirve para deducir las consecuencias derivadas de un hecho
  3. 3. Componente de un sistema experto el cual contiene todos los elementos esenciales de dicho sistema, exceptuando el conocimiento específico del dominio
  4. 4. La capacidad de tomar decisiones sensatas o llegar a conclusiones razonables, que tengan un criterio. Es un requerimiento de un sistema experto.
  5. 7. Son métodos adaptativos que pueden usarse para resolver problemas de búsqueda y optimización. Están basados en el proceso genético de los organismos vivos. Los Algoritmos Genéticos son capaces de ir creando soluciones para problemas del mundo real. La evolución de dichas soluciones hacia valores óptimos del problema depende en buena medida de una adecuada codificación de las mismas.
  6. 8. En el contexto de inteligencia artificial, el término "dominio" se refiere al área o el campo específico de conocimiento en el que se aplica un sistema de inteligencia artificial o un algoritmo de aprendizaje automático. El dominio se define por las características, reglas y restricciones que son relevantes para un problema o tarea particular.
  7. 9. Relación matemática, numérica y/o simbólica entre los elementos de los datos.
  8. 10. Unidad de proceso de una o varias entradas en una o varias salidas.
  9. 11. Práctica de minería de datos creada en el año 1960 que consiste en la aplicación a ciegas de métodos de minería de datos que pueden conducir al descubrimiento de patrones no válidos y sin sentido.
  10. 12. En un esquema o representación gráfica en forma de árbol, cada uno de los puntos de origen de las distintas ramificaciones. En el caso de Web Mining de Estructura, cada nodo del grafo de web es una página web.
  11. 13. Consiste en encontrar el agrupamiento natural de los ejemplos no etiquetados, de esta manera se crean clústeres o grupos a partir de los atributos de los datos. Cuando se reciba una instancia por proximidad a los clústeres se determina cuál pertenece.
  12. 14. Técnica que se aplica a un conjunto de datos para reducir su redundancia.
  13. 15. Es una de las técnicas más comunes para medir cómo de relevante es un término en un documento de una colección, se trata del producto entre dos métricas, la frecuencia con la que una palabra aparece en un determinado documento; y el inverso de lo común que es una palabra en toda la colección de documentos. Por lo tanto las palabras que son frecuentes en un documento pero raras en toda la colección obtienen una alta puntuación, lo que sugiere que son términos importantes para ese documento en particular.
  14. 18. Es una técnica que consiste en agregar más ejemplos de la clase minoritaria en un conjunto de datos desequilibrado para equilibrar las clases y mejorar el rendimiento de los modelos de aprendizaje automático en la detección de patrones y toma de decisiones.
  15. 20. Algoritmo de aprendizaje supervisado utilizado para entrenar redes de neuronas. Se comienza en la capa de salida y se arrastran los errores entre las salidas reales y las deseadas, utilizándolos para corregir los pesos de las conexiones de la capa anterior.
  16. 21. Es una tarea de minería de datos muy común, que consiste en analizar los datos históricos y crear o construir un modelo que pueda predecir la clase de una nueva instancia.
  17. 22. Es una familia de algoritmos utilizados para asignar de forma numérica la relevancia de los documentos o páginas web, indexados por un motor de búsqueda en función de la importancia o relevancia de una determinada página.
  18. 25. Presentación visual de datos críticos para que los ejecutivos los vean. Permite a los ejecutivos ver los puntos más relevantes y explorar la situación.
  19. 30. Colección simplificada o reducida de palabras que son extraídas de un documento sin considerar la gramática o el orden en que estas van apareciendo. Útil para tareas como la detección de spam en el correo electrónico.
  20. 31. En el ámbito de los algoritmos evolutivos, se define como la unidad de información más pequeña dentro de un cromosoma. Esta unidad es sobre la que algunos operadores genéticos actúan; de modo que modifican el valor de dicha unidad o cortan un cromosoma justo por donde empieza o terminan.
  21. 32. Es el nombre de una famosa supercomputadora desarrollada por IBM que se volvió ampliamente conocida por su éxito en el ajedrez. En 1997, Deep Blue hizo historia al derrotar al campeón mundial de ajedrez, Garry Kasparov, en una serie de partidas.
  22. 33. Tipo de modelo de aprendizaje supervisado utilizado para clasificación y regresión. Está compuesto por nodos (hojas), que representan los valores/clases y conexiones (ramas), que representan los resultados de las acciones. Un árbol de decisión puede ser una representación visual de las consecuencias de las diferentes acciones. ID3 o M5 son ejemplos de este tipo de modelo.
  23. 34. Conjunto ordenado y finito de operaciones que permite hallar la solución de un problema.
  24. 36. El proceso de descomponer secuencias de texto, sean oraciones o documentos enteros, en unidades más pequeñas llamadas token (unidades únicas y significativas de texto, como pueden ser palabras).
  25. 37. La tarea de minimizar o maximizar los valores que suponen la solución a un problema.
  26. 38. "Long Short-Term Memory" en inglés, que se traduce como "Memoria a Largo Plazo de Corto Plazo" en español. Es un tipo de arquitectura de red neuronal recurrente (RNN) utilizada en el campo del aprendizaje profundo, en particular en el procesamiento de secuencias y datos de series temporales. Las LSTM son una mejora con respecto a las RNN tradicionales porque abordan el problema del desvanecimiento del gradiente.
  27. 41. Operador de los algoritmos evolutivos que combina el material genético de dos individuos (padres) para generar nuevos individuos (hijos). A este operador también se le puede llamar recombinación.
  28. 44. Se refiere a una representación formal y explícita del conocimiento que describe conceptos, categorías, relaciones y propiedades en un dominio particular. En otras palabras, es un modelo conceptual que define los términos y las relaciones dentro de un área de conocimiento o dominio específico.
  29. 45. Algoritmos que infieren patrones de un conjunto de datos sin referencia a resultados conocidos o etiquetados.
  30. 47. Bloque de texto categorizado en una sentencia, esta categoría está relacionada con la función que dicho token representa. La asignación de significado a estos se conoce como Tokenizing.
  31. 48. medida que se utiliza para evaluar qué tan bien se desempeña un individuo o una solución en un problema de optimización o búsqueda. Esta medida se usa comúnmente en algoritmos evolutivos y genéticos, así como en otros métodos de optimización.
  32. 49. Compra y venta de productos y servicios a través de Internet. Es un modelo de negocio que utiliza plataformas digitales para realizar transacciones comerciales y facilitar el intercambio de bienes y servicios entre empresas y consumidores.
  33. 51. Es el área de la inteligencia artificial que está centrada en descubrir qué acciones se debe tomar para maximizar la señal de recompensa, en otras palabras se centra en cómo mapear situaciones a acciones que se centren en encontrar dicha recompensa.
  34. 55. Término que se refiere a la integración de las nuevas tecnologías (IA, IoT, análisis de datos, etc.) y la digitalización en los procesos de fabricación y producción para conseguir una mayor flexibilidad e individualización en los procesos productivos.
  35. 57. Es un mecanismo del navegador que se desplaza por Internet a través de los hipervínculos que aparecen en los sitios web existentes con el fin de evaluar palabras clave y hashtags; indexar el contenido y los URL de cada sitio web; copiar páginas web y abrir todos o solo algunos de los URL que encuentran para analizar nuevos sitios web.
  36. 61. Es una técnica utilizada en el aprendizaje automático y la estadística para evaluar el rendimiento de un modelo. Implica dividir los datos en un conjunto de entrenamiento, que se utiliza para entrenar el modelo, y un conjunto de pruebas, que se utiliza para evaluar su rendimiento. La validación cruzada k-fold es una de las variantes más comunes, implica dividir los datos en k subconjuntos. El modelo se entrena y evalúa k veces, utilizando cada subconjunto como conjunto de pruebas en una iteración y los demás subconjuntos como conjunto de entrenamiento. Los resultados se promedian para obtener una medida general del rendimiento del modelo.
  37. 62. Palabras que ya están previamente filtradas tanto antes como después del proceso de datos del lenguaje natural. No hay una lista universal de ellas, pero la mayoría están relacionadas con artículos, verbos auxiliares o palabras específicas del contexto que no tienen un valor útil.
  38. 64. Se trata de una colección de hechos, reglas y procedimientos esquematizados. Contiene toda la información y conocimiento sobre un campo específico (en el contexto de los sistemas expertos).
  39. 65. Proceso de reducir una palabra a su raíz (stem). Este proceso es utilizado en text mining. En español equivale al concepto: Derivación.
  40. 66. Datos que exceden el alcance de los entornos de hardware de uso común y/o capacidades de las herramientas de software para capturarlo, gestionarlo y procesarlo en un tiempo tolerable lapso
  41. 67. Es un conjunto lo mas extenso y ordenado de datos o textos científicos, literarios, etc., que se usan como fuente de datos para análisis o como base de una investigación. Un corpus puede ser una colección de documentos de texto, transcripciones de conversaciones, artículos de noticias, libros, sitios web o cualquier otra fuente de datos que contenga texto.
  42. 70. El sobreajuste ocurre cuando un modelo de machine learning es demasiado complejo y se ajusta demasiado a los datos de entrenamiento, perdiendo su capacidad de generalizar a nuevos datos. Esto puede resultar en un mal rendimiento en datos que no formaron parte del entrenamiento.
  43. 74. (Advanced Driver-Assistant System): Un sistema de asistencia avanzada al conductor es un conjunto de sistemas electrónicos diseñados para ayudar a conductores en la conducción, generalmente resultando en aumento de la seguridad.
  44. 77. Serie de transformaciones continuas que va experimentando la naturaleza y los seres que la componen.
  45. 81. especialmente en el procesamiento de lenguaje natural y la recuperación de información, "hits" es una abreviatura de "Hit or Miss," que en español significa "acierto o error." Los "hits" se utilizan para evaluar la calidad de un sistema de recuperación de información o un modelo de procesamiento de lenguaje natural, como un motor de búsqueda o un sistema de recomendación.