Seguimos buscando a Arshak. Ayudanos compartiendo!
Encuesta no oficial de docentes
Resultados de la encuesta no oficial de docentes
Probaste el SIGA Helper?

Donar $100 Donar $200 Donar $500 Donar mensualmente


Enviar respuesta 
 
Calificación:
  • 0 votos - 0 Media
  • 1
  • 2
  • 3
  • 4
  • 5
Buscar en el tema
[Aporte][IA] Final 25/02/2019
Autor Mensaje
gonnza Sin conexión
User Verde

*********

Ing. en Sistemas
Facultad Regional Buenos Aires

Mensajes: 17.356
Agradecimientos dados: 900
Agradecimientos: 887 en 356 posts
Registro en: Mar 2010
BlogSpot Google+ YouTube
Mensaje: #1
[Aporte][IA] Final 25/02/2019 Finales Inteligencia Artificial
Subo el final de IA de ayer, tercera fecha

fueron 3 puntos: para aprobar como siempre 60% de cada uno


1- eran 4 V o F con justificacion. Lo importante segun dijeron no era acertar el V o F sino la justificacion. Eran algo asi

a- La adquisicion de conocimientos es el principal cuello de botella de proyectos INCO (entiendo que V, es transversal a todo el proy y lo que mas lleva)
b- La formalizacion es la etapa en la que se decide la arquitectura del sistema (pense que era F, pero segun el profe es V.. para mi de "bajar el modelo conceptual a algo logico" a decir "decidir el tipo de arquitectura" hay un salto de fe algo importante, pero tal vez algun apunte lo decia y yo no lo vi)
c- No recuerdo las palabras exactamente, pero decia que la RN multiperceptron tenia conexiones hacia atras y por eso era backpropagation o con correccion de errores hacia atras (me confundio xq no vi en los apuntes nunca "multiperceptron", pero me dijo que es la misma RN backpropagation)
d- Al implementar un AG, los conocimientos estarán en los operadores genéticos (F, en la funcion de aptitud y en la estructura de cromosomas)

2- El segundo era un ejercicio de metodos de busqueda. Habia que recorrerlo via A* y escalada maxima pendiente. Sencillo

3- Uno de emparrillado: te daban un arbol de características ya resuelto con 5 características (C1, C2 y C5 se unian en "3", y de ese nodo se unia en 5 con C4 y C5) y habia que hacer la interpretacion y abajo de daban un texto sobre cactus y con el mismo arbol y la descripción de características, habia que armar la red de relaciones.


Rendimos 5/6, a mi y a otro pibe mas nos hicieron entrar para un pequeño oral (a mi de la teoria, pifie en el b y c de la teoria) pero creo que aprobaron todos.

[Imagen: v34BEFt.gif]
26-02-2019 10:08
Encuentra todos sus mensajes Agregar agradecimiento Cita este mensaje en tu respuesta
[-] gonnza recibio 2 Gracias por este post
rod77 (26-02-2019), ToLi1322 (18-11-2020)
cs_amg2002 Sin conexión
Empleado del buffet
Faltan 2 finalessss
*

Ing. en Sistemas
Facultad Regional Buenos Aires

Mensajes: 7
Agradecimientos dados: 8
Agradecimientos: 1 en 1 posts
Registro en: Jul 2016
Mensaje: #2
RE: [Aporte][IA] Final 25/02/2019
Buenas!! Antes que nada, gracias por el aporte. Dejo algunos comentarios para los que todavía tengan que rendir, como yo =D

Con respecto al 1-b puedo aportar que en el apunte K52/1 pág.33 están las fases de la metodología IDEAL y la Etapa II.3 se llama "Formalización de los Conocimientos y Definición de la Arquitectura". Por otro lado, leyendo las etapas en las páginas siguientes no me queda claro, ya que en la etapa Etapa II.1, "Concepción de la solución", también habla de arquitectura (dice que una de las actividades principales de la etapa es el "diseño arquitectónico del sistema")

Sobre el 1-c, en la ppt figura lo de multiperceptron, pero lo que no estoy seguro es si el hecho de derivar el gradiente del error a las neuronas anteriores se considera como "conexiones hacia atrás". Yo en un principio entendía que si, pero en el excel compilado de V/F de finales hay un item que lo contradice. Tal vez para que se consideren conexiones hacia atrás, lo que tiene que derivarse a las neuronas anteriores es la salida en si y no el error. Por otro lado, en la ppt esas "conexiones" correspondientes al error no aparecen en todos los diagramas de la red sino solo donde se habla del error (delta).
14-07-2019 15:30
Encuentra todos sus mensajes Agregar agradecimiento Cita este mensaje en tu respuesta
DaWy Sin conexión
Militante
....
***

Ing. en Sistemas


Mensajes: 53
Agradecimientos dados: 13
Agradecimientos: 25 en 8 posts
Registro en: May 2008
Mensaje: #3
RE: [Aporte][IA] Final 25/02/2019
La propagación hacia atrás de errores o retropropagación (del inglés backpropagation) es un método de cálculo del gradiente utilizado en algoritmos de aprendizaje supervisado utilizados para entrenar redes neuronales artificiales. El método emplea un ciclo propagación – adaptación de dos fases. Una vez que se ha aplicado un patrón a la entrada de la red como estímulo, este se propaga desde la primera capa a través de las capas siguientes de la red, hasta generar una salida. La señal de salida se compara con la salida deseada y se calcula una señal de error para cada una de las salidas.

Las salidas de error se propagan hacia atrás, partiendo de la capa de salida, hacia todas las neuronas de la capa oculta que contribuyen directamente a la salida. Sin embargo las neuronas de la capa oculta solo reciben una fracción de la señal total del error, basándose aproximadamente en la contribución relativa que haya aportado cada neurona a la salida original. Este proceso se repite, capa por capa, hasta que todas las neuronas de la red hayan recibido una señal de error que describa su contribución relativa al error total.
16-07-2019 17:38
Encuentra todos sus mensajes Agregar agradecimiento Cita este mensaje en tu respuesta
Buscar en el tema
Enviar respuesta 




Usuario(s) navegando en este tema: 1 invitado(s)