Voltaje de entrada se atenua con la frecuencia

Quisiera que alguno de los que estan en este foro me dijeran por que al realizar el
analisis en frecuencia de un filtro o de cualquier circuito, el voltaje de entrada empieza a decaer
poco a poco conforme se incrementa la frecuencia. Resultaria muy ilogico, dado que yo no controlo el voltaje
de entrada, solo el voltaje de salida deberia de cambiar con la frecuencia.

Nota:
Para ello utilizo un generador de señales.
 
Tal ves si uno pudiera ver el esquema que estas ensayando podría opinar.

En teoría los generadores de frecuencia poseen una tensión de salida constante.
 
Lo que estaba haciendo era determinar como variaba la señal de salida en un simulador de
linea de transmision infinita, que no era otra cosa que un conjunto de secciones
con resistencias y capacitores.

Entoces tenia un generador de señales viejito, no era digital como los actuales.

Y entonces al ir variando la frecuencia obteniamos el voltaje de salida, y en eso me doy cuenta
de que de repente el voltaje de entrada disminuia poco, de 30 V pico pico y luego de cierta frecuencia
pasaba a 29.5,29,28.7 que fue hasta donde llego.

Entonces quisiera saber a que se debe la atenuacion de la señal de entrada que yo fije desde un
principio al ir variando la frecuencia de dicha seña
 

Adjuntos

  • lab_medios_12_804.jpg
    lab_medios_12_804.jpg
    147.5 KB · Visitas: 5
  • lab_medios_15_688.jpg
    lab_medios_15_688.jpg
    218.2 KB · Visitas: 4
Atrás
Arriba