Noticias Destacadas


Modificación sustancial del Plan de Estudios del Grado en Matemáticas (acuerdo del Consejo de Gobierno de la UAM de 08/11/2023). Pendiente de aprobación por la Fundación Madri+d. Está previsto que la modificación se aplique, para todos los cursos del grado, en el año académico 2025-2026.

Información (provisional) sobre grupos y horarios de las asignaturas impartidas por el Departamento de Matemáticas, para el curso 2023-2024.



Quinta edición del Campamento de verano UAMMAT

Del 27 de junio al 5 de julio de 2024 tendrá lugar la quinta edición del Campamento de verano UAMMAT, organizado por el Departamento y destinado a alumnos de 1º de Bachillerato. El plazo de inscripción está abierto hasta el 12 de abril de 2024.

Ampliar información


 


Canal @matematicasuam

 

Enlace al canal del Departamento en youtube.

 


 


PIM (Pequeño Instituto de Matemáticas)

Con el objetivo de fomentar el interés por las matemáticas y dirigido a jóvenes entre 12 y 18 años, nació este proyecto de Instituto de Ciencias Matemáticas (ICMAT) en colaboración con nuestro Departamento, la Universidad Autónoma de Madrid y la Real Sociedad Matemática Española.

El proyecto arrancó en el curso académico 2022-2023, y el registro al mismo está abierto todo el año.

Ampliar información en su página web.



Plan Regional de Investigación Científica e Innovación Tecnológica (PRICIT)

Ayudas de excelencia para el profesorado universitario en el marco del convenio entre la Comunidad de Madrid y la Universidad Autónoma de Madrid. Pueden pedir estas ayudas para viajes y congresos cualquier miembro del Departamento de Matemáticas de la UAM.

Ampliar información

 

Mes anteior Día anterior Día siguiente Mes siguiente
Anual Mensual Semanal Hoy Buscar Ir al mes específico
Seminario de Estadística

Seminario de Estadística

"APRENDIZAJE SEMI-SUPERVISADO"

Alejandro Cholaquidis
Universidad de la República (Uruguay)

Miércoles, 5 de diciembre, 15:00 h., sala 520
 
Resumen:
 
El problema clásico de clasificación tiene como objetivo asignar una etiqueta a un nuevo dato a partir de una muestra D_n de entrenamiento.  Típicamente se asume D_n iid, y se prueban resultados de consistencia cuando n → ∞. En el contexto de aprendizaje semi-supervisado, la muestra de entrenamiento es pequeña, y se tiene una enorme cantidad, l>>n, de datos para clasificar, X_1 , . . . , X_l . El objetivo es usar (si es posible) la enorme cantidad de datos no clasificados,  para construir un clasificador que sea mejor (se equivoque menos) que el que se  puede construir con la muestra inicial D_n ya etiquetada. Intuitivamente, esto será posible  si conocer la distribución de las X aporta información a la clasificación.   En la charla propondremos un algoritmo que permite clasificar secuencialmente la muestra X_1,...X_l , y que asintoticamente (cuando l → ∞ y n es fijo), se comporta como la mejor regla (teórica) posible. Si bien esto requiere imponer hipotesis fuertes sobre la distribución de las X, veremos que las mismas son necesarias, por la dificultad intrínseca del problema.
Localización  Miércoles, 5 de diciembre, 15:00 h., sala 520