16-05-2013, 12:05
Hola,
Al final tuve el parcial y el mismo no fue tan siniestro como esperaba:
Toma 4 preguntas teóricas y 4 prácticas
entre las teóricas
1) explique convergencia
2) definición de valor eficaz, medio y factor medio
3) diferencia entre mensaje y paquete
4) diferencia entre latencia y delay
entre las prácticas
1) un circuito clásico de corriente continua con una bateria al cual se le agrega una lampara. Luego consulta Resistencia, Corriente y tensión de los dos componentes + la potencia de los dos también.
2) una conexión entre un receptor y un emisor, cuanta Potencia necesita enviar el emisor para que el receptor reciba siendo que la Sensibilidad del receptor es X cantidad (no recuerdo el número). Daba como datos la sensibilidad, la atenuación y el factor de diseño. No había amplificador en el medio.
3) Ejercicio de transmisión de bits. Cuanto tardaba en trasmitir 1000 caracteres a una velocidad de modulación de X gaudios (no recuerdo el númer)
4) Teoría de la información y Entropía. Tres simbolos. Se sacaba los SHANNON y luego se calculaba la entropía.
Saludos.
Al final tuve el parcial y el mismo no fue tan siniestro como esperaba:
Toma 4 preguntas teóricas y 4 prácticas
entre las teóricas
1) explique convergencia
2) definición de valor eficaz, medio y factor medio
3) diferencia entre mensaje y paquete
4) diferencia entre latencia y delay
entre las prácticas
1) un circuito clásico de corriente continua con una bateria al cual se le agrega una lampara. Luego consulta Resistencia, Corriente y tensión de los dos componentes + la potencia de los dos también.
2) una conexión entre un receptor y un emisor, cuanta Potencia necesita enviar el emisor para que el receptor reciba siendo que la Sensibilidad del receptor es X cantidad (no recuerdo el número). Daba como datos la sensibilidad, la atenuación y el factor de diseño. No había amplificador en el medio.
3) Ejercicio de transmisión de bits. Cuanto tardaba en trasmitir 1000 caracteres a una velocidad de modulación de X gaudios (no recuerdo el númer)
4) Teoría de la información y Entropía. Tres simbolos. Se sacaba los SHANNON y luego se calculaba la entropía.
Saludos.