UTNianos

Versión completa: [Aporte][IA] Final 25/02/2019
Actualmente estas viendo una versión simplificada de nuestro contenido. Ver la versión completa con el formato correcto.
Subo el final de IA de ayer, tercera fecha

fueron 3 puntos: para aprobar como siempre 60% de cada uno


1- eran 4 V o F con justificacion. Lo importante segun dijeron no era acertar el V o F sino la justificacion. Eran algo asi

a- La adquisicion de conocimientos es el principal cuello de botella de proyectos INCO (entiendo que V, es transversal a todo el proy y lo que mas lleva)
b- La formalizacion es la etapa en la que se decide la arquitectura del sistema (pense que era F, pero segun el profe es V.. para mi de "bajar el modelo conceptual a algo logico" a decir "decidir el tipo de arquitectura" hay un salto de fe algo importante, pero tal vez algun apunte lo decia y yo no lo vi)
c- No recuerdo las palabras exactamente, pero decia que la RN multiperceptron tenia conexiones hacia atras y por eso era backpropagation o con correccion de errores hacia atras (me confundio xq no vi en los apuntes nunca "multiperceptron", pero me dijo que es la misma RN backpropagation)
d- Al implementar un AG, los conocimientos estarán en los operadores genéticos (F, en la funcion de aptitud y en la estructura de cromosomas)

2- El segundo era un ejercicio de metodos de busqueda. Habia que recorrerlo via A* y escalada maxima pendiente. Sencillo

3- Uno de emparrillado: te daban un arbol de características ya resuelto con 5 características (C1, C2 y C5 se unian en "3", y de ese nodo se unia en 5 con C4 y C5) y habia que hacer la interpretacion y abajo de daban un texto sobre cactus y con el mismo arbol y la descripción de características, habia que armar la red de relaciones.


Rendimos 5/6, a mi y a otro pibe mas nos hicieron entrar para un pequeño oral (a mi de la teoria, pifie en el b y c de la teoria) pero creo que aprobaron todos.
Buenas!! Antes que nada, gracias por el aporte. Dejo algunos comentarios para los que todavía tengan que rendir, como yo =D

Con respecto al 1-b puedo aportar que en el apunte K52/1 pág.33 están las fases de la metodología IDEAL y la Etapa II.3 se llama "Formalización de los Conocimientos y Definición de la Arquitectura". Por otro lado, leyendo las etapas en las páginas siguientes no me queda claro, ya que en la etapa Etapa II.1, "Concepción de la solución", también habla de arquitectura (dice que una de las actividades principales de la etapa es el "diseño arquitectónico del sistema")

Sobre el 1-c, en la ppt figura lo de multiperceptron, pero lo que no estoy seguro es si el hecho de derivar el gradiente del error a las neuronas anteriores se considera como "conexiones hacia atrás". Yo en un principio entendía que si, pero en el excel compilado de V/F de finales hay un item que lo contradice. Tal vez para que se consideren conexiones hacia atrás, lo que tiene que derivarse a las neuronas anteriores es la salida en si y no el error. Por otro lado, en la ppt esas "conexiones" correspondientes al error no aparecen en todos los diagramas de la red sino solo donde se habla del error (delta).
La propagación hacia atrás de errores o retropropagación (del inglés backpropagation) es un método de cálculo del gradiente utilizado en algoritmos de aprendizaje supervisado utilizados para entrenar redes neuronales artificiales. El método emplea un ciclo propagación – adaptación de dos fases. Una vez que se ha aplicado un patrón a la entrada de la red como estímulo, este se propaga desde la primera capa a través de las capas siguientes de la red, hasta generar una salida. La señal de salida se compara con la salida deseada y se calcula una señal de error para cada una de las salidas.

Las salidas de error se propagan hacia atrás, partiendo de la capa de salida, hacia todas las neuronas de la capa oculta que contribuyen directamente a la salida. Sin embargo las neuronas de la capa oculta solo reciben una fracción de la señal total del error, basándose aproximadamente en la contribución relativa que haya aportado cada neurona a la salida original. Este proceso se repite, capa por capa, hasta que todas las neuronas de la red hayan recibido una señal de error que describa su contribución relativa al error total.
URLs de referencia