On Tue, Jan 17, 2012 at 9:56 PM, Matt Mackall <span dir="ltr"><<a href="mailto:mpm@selenic.com">mpm@selenic.com</a>></span> wrote:<br><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0pt 0pt 0pt 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
<div class="im">On Tue, <a href="tel:2012-01-17" value="+4520120117">2012-01-17</a> at 16:36 +0100, Na'Tosha Bard wrote:<br>
> # HG changeset patch<br>
> # User Na'Tosha Bard <<a href="mailto:natosha@unity3d.com">natosha@unity3d.com</a>><br>
> # Date 1326814529 -3600<br>
> # Node ID 453c8e098d89d29c725ef0c3bc609aa977c2f7c0<br>
> # Parent  d25169284e9883bfff74faf4fdafdd74a6a5ba27<br>
> largefiles: cache new largefiles for new heads when pulling<br>
<br>
</div>I guess. Queued for default.</blockquote><div><br>Do you think it would be a good idea to have an option to turn off this behavior?<br><br>On one hand, the promise we make with largefiles is, "You'll only download the largefiles you need."  In order to do pretty much anything meaningful with another head (merge, rebase, or update to it), you will need to download these largefiles.  So this doesn't really break that promise and it fixes a workflow problem.<br>
<br>But I can imagine a situation, where you might not want this behavior -- if you have a huge number of named branches, for example, with several large, unique largefiles, and you are not sure when or if you will merge with any of them.<br>
<br>If we think it would be a good idea to add an option for "don't cache largefiles for new heads on pull", I'll be happy to do it.<br><br>Cheers,<br>Na'Tosha <br></div></div>