...Mi único problema es que cuando pongo la simulación .tran, para efectuar 5 segundos de simulación me tarda tanto que siempre lo tengo que parar antes de que llegue a procesar los 5 segundos...
¿es posible configurar los "tiempos" mínimos en el que debe efectuar el análisis?
No te confundas, estas simulaciones no son en tiempo real.
Cuando vos pones en 5s en .TRAN es que lo resuelve para ese intervalo, lo que demore depende del tipo de problema.
Si es por ejemplo un problema de alterna sin nada raro, te lo sacara instantaneamente salvo que te hayas delirado y la frecuencia sea de 1MHz porque va a tener que calcular y guardar los valores correspondientes a 5 millones de ciclos.
Cuando son circuitos de conmutación, hay que tener cuidado si tenés inductancias y capacitores, porque precisamente durante la conmutación se producen picos de tensión y oscilaciones de alta frecuencia que c*gan la convergencia.
Puede pasar que todo arranque bien, se plante al 10% de la simulación y siga avanzando muy despacio.
Eso es porque los intervalos de tiempo son adaptivos, y si hasta ahi venia calculando con intervalos de 10uS , durante el transitorio de conmutación lo tiene que achicar a 10nS y se pudre todo.
Para eso está el toqueteo de los parámetros de simulación. Vos podés declarar un tiempo mínimo para que no se te plante, pero tenés que ser conciente que en ese punto crítico la gráfica ya no será fiel.
El problema clásico es la simulacion de una fuente conmutada. Vos tenes una señal de alta frecuencia y un circuito de estabilización cuyas constantes de tiempo son muchisimo mayores.
Entonces, el simulador tiene que resolver todo el bolonki correspondiente a cada conmutacion de los transistores de potencia durante
miles de ciclos, porque eso es lo que demoran las actuaciones de los circuitos de proteccion y estabilización.
Forzosamente son simulaciones largas... Pero otros programas, o ni te las hacen o demoran mas todavia.
Otro detalle a tener en cuenta es el modelo utilizado. Generalmente cuando se simulan integrados digitales, los programas convencionales lo tratan de manera puramente digital porque de esa manera se acelera (y mucho) la simulacion. El problema aparece cuando mezclas elementos analogicos y digitales porque el funcionamiento puede ser cualquier cosa.
El LTSpice te tiene en cuenta eso, pero el precio es el tiempo. Como el fuerte de Linear Technology son integrados para fuentes conmutadas está optimizado para ese tipo de simulaciones.
Dicho de otra forma, por lo que veo, el programa toma muestras en funcion del tiempo, en intervalos que el mismo selecciona a discreción. Supongamos que tarda 1ms en hacer una cuenta para crear el punto en el gráfico. Si el programa toma una muestra por cada us (microsegundo) de la simulación, me tardaría 100ms (0.1 s) en procesar 0.1ms de la simulación.
Entonces, para hacer 1ms de la Simulación, tardaría 1s real, y por lo tanto, tardaría 1000s reales en hacer 1s de simulación, se me van a 5000s reales en completar la simulación, que sería 1h15min aprox...
Entonces, ¿cómo puedo "Reducir" la resolución de muestreo de la simulación para que efectue 1 proceso por cada ms (milisegundo) de la simulación? o efectue 10 procesos por segundo de la simulasión... etc...
espero dejar claro mi problema...
Creo que tu problema esta en que el circuito de prueba que usaste oscila a alta frecuencia ==> siempre va a demorar un siglo.
Ah! ojo con otra cosa. Cuando se simulan osciladores hay que tener cuidado con las condiciones iniciales y
no dejar que el programa las calcule automaticamente (
esto con cualquier soft)
Proba con el adjunto que es el multivibrador que estabas ensayando.