Guía docente de Inteligencia Computacional (M50/56/2/4)

Curso 2024/2025
Fecha de aprobación por la Comisión Académica 20/09/2024

Máster

Máster Universitario en Ingeniería Informática

Módulo

Tecnologías Informáticas 1

Rama

Ingeniería y Arquitectura

Centre of instruction

E.T.S. de Ingenierías Informática y de Telecomunicación

Centro Responsable del título

International School for Postgraduate Studies

Semestre

Primero

Créditos

6

Tipo

Obligatorio

Tipo de enseñanza

Presencial

Profesorado

  • Fernando Berzal Galiano
  • David Criado Ramón

Tutorías

Fernando Berzal Galiano

Email
  • Tutorías 1º semestre
    • Lunes 20:00 a 21:00 (D17 (Etsiit))
    • Lunes 16:00 a 18:00 (D17 (Etsiit))
    • Jueves 18:00 a 21:00 (D17 (Etsiit))
  • Tutorías 2º semestre
    • Miércoles 16:30 a 19:30 (D17 (Etsiit))
    • Jueves 17:30 a 19:30 (D7 (Etsiit))

David Criado Ramón

Email
  • Tutorías 1º semestre
    • Martes 9:00 a 12:00 (Edificio Auxiliar Despacho 1.4)
    • Miércoles 9:00 a 12:00 (Edificio Auxiliar Despacho 1.4)
  • Tutorías 2º semestre
    • Martes 9:00 a 12:00 (Edificio Auxiliar Despacho 1.4)
    • Miercoles 9:00 a 11:00 (Edificio Auxiliar Despacho 1.4)
    • Miércoles 9:00 a 12:00 (Edificio Auxiliar Despacho 1.4)
    • Jueves 9:00 a 13:00 (Edificio Auxiliar Despacho 1.4)

Breve descripción de contenidos (Según memoria de verificación del Máster)

Redes Neuronales Artificiales, Modelos de RNA y Aplicaciones, Optimización con Redes Neuronales Artificiales, Redes Neuronales Evolutivas y Aplicaciones, Diversidad y Convergencia en los Algoritmos Evolutivos, Algoritmos Genéticos con Codificación Real, Algoritmos Evolutivos Híbridos, Algoritmos Evolutivos Multiobjetivo, Algoritmos Bioinspirados, Conjuntos Difusos y Lógica Difusa, Aprendizaje y Adaptación en Sistemas Basados en Reglas Difusas, Interpretabilidad y Precisión, Aplicación de los Sistemas Basados en Reglas Difusas, Métodos de clustering, y sistemas de decisión en biología computacional, Algoritmos para el análisis de secuencias de ADN y Proteínas, Gramáticas estocásticas: Predicción de estructuras secundarias de ARN, Modelos estadísticos y heurísticos para el análisis de expresión y variaciones genéticas en genomas completos.

Prerrequisitos y/o Recomendaciones

Estar en posesión del título de Graduado en Informática

Competencias

Competencias Básicas

  • CB6. Poseer y comprender conocimientos que aporten una base u oportunidad de ser originales en desarrollo y/o aplicación de ideas, a menudo en un contexto de investigación.
  • CB7. Que los estudiantes sepan aplicar los conocimientos adquiridos y su capacidad de resolución de problemas en entornos nuevos o poco conocidos dentro de contextos más amplios (o multidisciplinares) relacionados con su área de estudio.
  • CB8. Que los estudiantes sean capaces de integrar conocimientos y enfrentarse a la complejidad de formular juicios a partir de una información que, siendo incompleta o limitada, incluya reflexiones sobre las responsabilidades sociales y éticas vinculadas a la aplicación de sus conocimientos y juicios.
  • CB9. Que los estudiantes sepan comunicar sus conclusiones y los conocimientos y razones últimas que las sustentan a públicos especializados y no especializados de un modo claro y sin ambigüedades.
  • CB10. Que los estudiantes posean las habilidades de aprendizaje que les permitan continuar estudiando de un modo que habrá de ser en gran medida autodirigido o autónomo.

Resultados de aprendizaje (Objetivos)

El alumno sabrá/comprenderá:

  • Los modelos de redes neuronales artificiales y las técnicas empleadas para su entrenamiento. Nuevos paradigmas: Deep Learning.
  • Los algoritmos evolutivos y los algoritmos bioinspirados.
  • Los fundamentos de las Lógica Difusa y sus aplicaciones más notables
  • Los fundamentos de los sistemas basados en reglas difusas
  • Los fundamentos y algoritmos empleados en Biología Computacional

El alumno será capaz de:

  • Emplear los conocimientos anteriores para resolver problemas concretos.
  • Diseñar un sistema que resuelva un caso de uso valorando la importancia de la interpretabilidad y la precisión según el caso práctico

Programa de contenidos Teóricos y Prácticos

Teórico

  1. La Inteligencia Computacional. Orígenes. Paradigmas de la Inteligencia Computacional.
  2. La Lógica Difusa. Fundamentos. Aplicaciones de la Lógica Difusa.
  3. Redes Neuronales Artificiales & Deep Learning. Tipos de redes neuronales artificiales. Entrenamiento de redes neuronales. Técnicas de regularización. Algoritmos de optimización. Aplicaciones de las Redes Neuronales Artificiales.
  4. Computación Evolutiva. Orígenes. Algoritmos evolutivos. Algoritmos genéticos. Aplicaciones de la Computación Evolutiva.

Práctico

  1. Estudio y presentación de un caso de uso de la Lógica Difusa.
  2. Desarrollo e implementación de una solución basada en Redes Neuronales Artificiales.
  3. Desarrollo e implementación de una solución basada de Algoritmos Genéticos.
  4. Seminario sobre fundamentos, algoritmos y aplicaciones de Biología Computacional.

Bibliografía

Bibliografía fundamental

  • Hans-Jürgen Zimmermann: “Fuzzy Set Theory”, WIREs Computational Statistics, volume 2, issue 3, John Wiley & Sons, May/June 2010. DOI 10.1002/wics.82
  • George J. Klir & Bo Yuan: “Fuzzy Sets and Fuzzy Logic: Theory and Applications”, 1st edition, Prentice Hall, 1995. ISBN 0131011715
  • Fernando Berzal: “Redes Neuronales & Deep Learning”, edición independiente, 2019, https://deep-learning.ikor.org
    - Volumen I: Entrenamiento de redes neuronales artificiales, ISBN 1-0903-2030-2.
    - Volumen II: Regularización, optimización & arquitecturas especializadas, ISBN 1-0903-3688-8.
  • Ian Goodfellow, Yoshua Bengio & Aaron Courville: “Deep Learning”, MIT Press, 2016. ISBN 0262035618, http://www.deeplearningbook.org
  • Guszti A.E. Eiben & James E. Smith: “Introduction to Evolutionary Computing”, Springer, 2nd edition, 2015. ISBN 3662448734, http://www.cs.vu.nl/~gusz/ecbook/ecbook.html

Bibliografía complementaria

  • Amit Konar:  “Computational Intelligence. Principles, Techniques and Applications”, Springer Verlag, 2005. ISBN 3540208984.
  • Leszek Rutkowski: “Computational Intelligence. Methods and Techniques”, Springer Verlag, 2008. ISBN 3540762876.
  • Andries P. Engelbrecht: “Computational Intelligence. An Introduction”, 2nd edition, John Wiley, 2007. ISBN 0470035617.

Lógica y sistemas difusos:

  • Witold Pedrycz & Fernando Gomide: “An introduction to Fuzzy Sets: Analysis and Design”. MIT Press, 1998. ISBN 0262161710.
  • Hans-Jürgen Zimmermann: “Fuzzy Set Theory and Its Applications”, Springer, 3rd edition, 1996. ISBN 0792396243 / Springer, 4th edition, 2001. ISBN 9401038708.
  • Rudolf Kruse, Joan E. Gebhardt & Frank Klawonn: “Foundations of Fuzzy Systems”. John Wiley & Sons, 1994. ISBN 047194243X.
  • F. Martin McNeill & Ellen Thro: “Fuzzy Logic: A Practical Approach”. AP Professional, Morgan Kaufmann, 1994. ISBN 0124859658.
  • Timothy J. Ross: “Fuzzy Logic with Engineering Applications”, 4th edition, John Wiley & Sons, 2017. ISBN 1119235863.
  • Mohammad Jamshidi, Nader Vadiee & Timothy Ross (editors): “Fuzzy Logic and Control. Software and Hardware Applications”. Prentice Hall, 1993. ISBN 0133342514.
  • James C. Bezdek: “Pattern Recognition with Fuzzy Objective Function Algorithms”. Plenum Press, 1981. ISBN 0306406713.
  • Bart Kosko: “Neural Networks and Fuzzy Systems: A Dynamical Systems Approach to Machine Intelligence”. Prentice Hall, 1992. ISBN 0136114350
  • Isabel Hernández Negrín & Ibán López Campos: “Lógica Fuzzy para Principiantes”. Sur A&C, Omron Electronics, 1997. ISBN 8492032634.
  • Lofti A. Zadeh, “Fuzzy Sets”. Information and Control, volume 8, issue 3, pp. 338-353, June 1965. DOI 10.1016/S0019-9958(65)90241-X

Redes neuronales & Deep Learning:

  • Charu C. Aggarwal: “Neural Networks and Deep Learning: A Textbook”, Springer, 2018. ISBN 3319944622, http://link.springer.com/978-3-319-94463-0
  • Yoav Goldberg: “Neural Network Methods in Natural Language Processing”, Morgan & Claypool Publishers, Synthesis Lectures on Human Language Technologies, 2017. ISBN 1627052984, https://doi.org/10.2200/S00762ED1V01Y201703HLT037
  • François Chollet: “Deep Learning with Python”, Manning Publications, 2018, ISBN 1617294438, https://www.manning.com/books/deep-learning-with-python
  • Aurélien Géron: “Hands-On Machine Learning with Scikit-Learn, Keras, and TensorFlow: Concepts, Tools, and Techniques to Build Intelligent Systems”, O'Reilly Media, 2nd edition, 2019. ISBN 1492032646.
  • David Foster: “Generative Deep Learning: Teaching Machines to Paint, Write, Compose, and Play”, O'Reilly, 2019. ISBN 1492041947.
  • Terrence J. Sejnowski: “The Deep Learning Revolution”, MIT Press, 2018. ISBN 026203803X.
  • Marvin Minsky & Seymour A. Papert: “Perceptrons: An Introduction to Computational Geometry”, MIT Press, 2017. ISBN 0262534770.

Computación evolutiva:

  • Melanie Mitchell: “An Introduction to Genetic Algorithms”, MIT Press, 1996. ISBN 0262133164
  • David E. Goldberg: “Genetic Algorithms in Search, Optimization & Machine Learning”, Addison-Wesley, 1989. ISBN 0201157675
  • Kenneth A. De Jong: “Evolutionary Computation: A Unified Approach”, MIT Press, 1st edition, 2006. ISBN 0262041944
  • David B. Fogel: “Evolutionary Computation: Toward a New Philosophy of Machine Intelligence”, Wiley - IEEE Press, 3rd edition, 2006. ISBN 0471669512.
  • Dana H. Ballard: “An Introduction to Natural Computation”, MIT Press, 1997. ISBN 0262024209
  • John R. Koza: “Genetic Programming: On the Programming of Computers by Means of Natural Selection”, MIT Press, 1992. ISBN 0262111705
  • John H. Holland: “Adaptation in Natural and Artificial Systems: An Introductory Analysis with Applications to Biology, Control, and Artificial Intelligence”, MIT Press, 1992. ISBN 0262581116

Enlaces recomendados

Metodología docente

Evaluación (instrumentos de evaluación, criterios de evaluación y porcentaje sobre la calificación final.)

Evaluación Ordinaria

El artículo 17 de la Normativa de Evaluación y Calificación de los Estudiantes de la Universidad de Granada establece que la convocatoria ordinaria estará basada preferentemente en la evaluación continua del estudiante, excepto para quienes se les haya reconocido el derecho a la evaluación única final.

En la convocatoria ordinaria se utilizarán las siguientes técnicas de evaluación:

  • Para la parte teórica se realizarán exámenes (finales o parciales) y/o entregas de ejercicios sobre el desarrollo y los resultados de las actividades propuestas.
  • Para la parte práctica se realizarán prácticas de laboratorio, resolución de problemas y desarrollo de proyectos (individuales o en grupo), y se valorarán las entregas de los informes/memorias realizados por los alumnos.
  • La parte de trabajo autónomo y los seminarios se evaluarán teniendo en cuenta la asistencia y participación en los seminarios y en las clases teóricas.

La puntuación final se calculará teniendo en cuenta un 45% la nota de teoría, un 45% la nota de prácticas y un 10% de asistencia y participación. Para poder superar la asignatura será necesario obtener una nota final igual o superior a 5 puntos sobre 10, habiendo obtenido al menos 4 puntos (sobre el total final de 10) en cada parte, teoría y prácticas.

Evaluación Extraordinaria

El artículo 19 de la Normativa de Evaluación y Calificación de los Estudiantes de la Universidad de Granada establece que los estudiantes que no hayan superado la asignatura en la convocatoria ordinaria dispondrán de una convocatoria extraordinaria. A ella podrán concurrir todos los estudiantes, con independencia de haber seguido o no un proceso de evaluación continua. De esta forma, el estudiante que no haya realizado la evaluación continua tendrá la posibilidad de obtener el 100% de la calificación mediante la realización de una prueba y/o trabajo.

En convocatorias extraordinarias, tanto la parte teórica como la práctica serán evaluadas en un único examen que contendrá cuestiones de índole teóricas y problemas de índole práctica. La puntuación asignada a cada parte será 50% parte teórica, 50% parte práctica. Para poder superar la asignatura será necesario obtener una nota final igual o superior a 5 puntos sobre 10, habiendo obtenido al menos 4 puntos (sobre el total final de 10) en cada parte, teoría y prácticas.

En caso de haber realizado evaluación continua de prácticas durante la convocatoria ordinaria, la nota de prácticas en la convocatoria extraordinaria antes de ponderación será la mejor puntuación entre la obtenida en el examen y la obtenida con las entregas de prácticas.

Evaluación única final

El artículo 8 de la Normativa de Evaluación y Calificación de los Estudiantes de la Universidad de Granada establece que podrán acogerse a la evaluación única final, el estudiante que no pueda cumplir con el método de evaluación continua por causas justificadas.

Para acogerse a la evaluación única final, el estudiante, en las dos primeras semanas de impartición de la asignatura o en las dos semanas siguientes a su matriculación si ésta se ha producido con posterioridad al inicio de las clases, lo solicitará, a través del procedimiento electrónico, a la Coordinación del Máster, quien dará traslado al profesorado correspondiente, alegando y acreditando las razones que le asisten para no poder seguir el sistema de evaluación continua.

En convocatorias extraordinarias, tanto la parte teórica como la práctica serán evaluadas en un único examen que contendrá cuestiones de índole teóricas y problemas de índole práctica. La puntuación asignada a cada parte será 50% parte teórica, 50% parte práctica. Para poder superar la asignatura será necesario obtener una nota final igual o superior a 5 puntos sobre 10, habiendo obtenido al menos 4 puntos (sobre el total final de 10) en cada parte, teoría y prácticas.

Información adicional

Régimen de asistencia:

De forma general, la asistencia a las clases teóricas o prácticas no será obligatoria. Sin embargo, se deberá tener en cuenta que, como se ha indicado en el apartado de evaluación, la participación en las sesiones de la asignatura se tendrá en cuenta en la evaluación continua de la asignatura.

Definición de grupo grande y grupo pequeño:

  • Los grupos grandes son grupos de 30 a 60 estudiantes.
  • Los grupos pequeños son grupos de 15 a 20 estudiantes.