Mechanistic Interpretability: come aprire un LLM e leggere i suoi pensieri. GPT-2 small smontato pezzo per pezzo: 144 attention heads, circuito IOI a 26 head, Sparse Autoencoders con 24.576 feature, f ...
Some results have been hidden because they may be inaccessible to you
Show inaccessible results