Thanks for the explanation, Hans.  I still haven't experimented with the effect of -noinit on convergence, as I've been toying with the logistic-transformed "bounded" random effects you suggested earlier.<div>

<br></div><div>I'm not having much luck getting them to work, and I think there's a valid reason for it.</div><div><br></div><div>I define</div><div><br></div><div>init_bounded_number logtau(-10,3,2);</div><div>random_effects_vector el(0,n-2,2);</div>

<div>vector e(0,n-2);</div><div><br></div><div>in the parameter section (among many other things, of coures), and then at the top of the procedure section, I compute</div><div><br></div><div>tau=mfexp(logtau);</div><div>
<br>
</div><div>for(i=0;i<(n-1);i++){</div><div>e[i] = -5 + 10*exp(el[i])/(1+exp(el[i]));</div><div>}</div><div><br></div><div>and then proceed to use el[i] values within the model, including </div><div><br></div><div>totL += -(n-1)*log(tau)-.5*norm2(e/tau);</div>

<div><br></div><div>with totL the objective function value.  These random effects occur within a logistic function themselves [survival probability = exp(s+e[i])/(1+exp(s+e[i]))], so an upper limit on tau of exp(3) should quite easily cover the range of survival probability within 0 and 1 along with e[i] ranging from about -5 to 5.  Also, my simulated datasets do not contain an inordinate amount of variation in this survival probability, but enough such that detection should be relatively easy.</div>

<div><br></div><div>I believe the problem is that, in this case, an el[i] value of 6 is just as good as an el[i] value of 60 (they lead to the same result, namely that logit(el[i])=1).  Thus, there are many, many el[i]'s to get the same e[i], and I end up with random effects values steadily increasing in magnitude into the thousands, until I finally cease optimization.</div>

<div><br></div><div>Just wanted to update anyone who might be following along with my progress.  I'll keep working on a solution, but still welcome any other suggestions that might be out there.</div><div><br></div><div>

<br></div><div><br></div><div>Chris</div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br>-----------------------------<br>Chris Gast<br><a href="mailto:cmgast@gmail.com" target="_blank">cmgast@gmail.com</a><br>


<br><br><div class="gmail_quote">On Wed, Aug 4, 2010 at 10:16 PM, H. Skaug <span dir="ltr"><<a href="mailto:hskaug@gmail.com" target="_blank">hskaug@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">

Chris and Mark,<br>
<br>
No, by default the RE are initialized to zero (or whatever is found in<br>
the .pin file)<br>
at the start of each inner optimization (part of the Laplace approximation).<br>
This has been found to be more robust in general than using the RE estimate<br>
from the previous Laplace appr.<br>
<br>
I hoped that it could help here, but it is a shot in the dark. (One<br>
could also hope that -noinit reduces the computational time somewhat)<br>
<br>
Hans<br>
<div><br>
<br>
> I suppose I'm a bit confused about the -noinit option.  Shouldn't ADMB use<br>
> the previous RE estimates as the starting point for the next optimization by<br>
> default?  Perhaps I'm misunderstanding something.<br>
> Thanks again,<br>
</div>> Christ<br>
><br>
</blockquote></div><br></div>