<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=us-ascii">
</head>
<body style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space;">
Hi All!
<div><br>
</div>
<div>Just a reminder that our speaker today will be&nbsp;<i style="font-weight: bold;">Finale Doshi</i>, speaking about&nbsp;<b><i>Prediction and Interpretation with Latent Variable Models.</i></b></div>
<div><b><i><br>
</i></b></div>
<div><b><i><br>
</i></b></div>
<div>Hope to see you all at the talk!</div>
<div><br>
</div>
<div>Tess<br>
<div>
<div apple-content-edited="true"><span class="Apple-style-span" style="border-collapse: separate; border-spacing: 0px;">
<div style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space; ">
<span class="Apple-style-span" style="border-collapse: separate; color: rgb(0, 0, 0); font-family: 'Times New Roman'; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height: normal; orphans: 2; text-align: -webkit-auto; text-indent: 0px; text-transform: none; white-space: normal; widows: 2; word-spacing: 0px; border-spacing: 0px; -webkit-text-decorations-in-effect: none; -webkit-text-size-adjust: auto; -webkit-text-stroke-width: 0px;  ">
<div style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space; ">
<br>
</div>
</span></div>
</span></div>
<div>
<div>On Apr 13, 2014, at 1:41 PM, Wise, Tess &lt;<a href="mailto:wise@fas.harvard.edu">wise@fas.harvard.edu</a>&gt; wrote:</div>
<br class="Apple-interchange-newline">
<blockquote type="cite">
<div style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space;">
Hi All!
<div><br>
</div>
<div>Our speaker this Wednesday (4/16) at Applied Stats will be<i style="font-weight: bold;"> Finale Doshi,
</i>a post-doc&nbsp;at Harvard Medical School and the Harvard School of Engineering and Applied Sciences. Finale completed her PhD in Computer Science from MIT in 2012 which applied Bayesian nonparametric models (which have the nice property of scaling the sophistication
 of learned models with the complexity of the data) to problems in reinforcement learning.&nbsp;</div>
<div><br>
</div>
<div>Finale will be giving a talk entitled&nbsp;<b><i>Prediction and Interpretation with Latent Variable Models</i></b><i>.
</i>The abstract for the talk is included below. As per usual, we will meet in CGIS K354 at 12 noon and lunch will be served.</div>
<div><br>
</div>
<div>I look forward to seeing you all there!</div>
<div><br>
</div>
<div>Tess</div>
<div>
<div apple-content-edited="true"><span class="Apple-style-span" style="border-collapse: separate; border-spacing: 0px;">
<div style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space; ">
<span class="Apple-style-span" style="border-collapse: separate; font-family: 'Times New Roman'; font-variant: normal; letter-spacing: normal; line-height: normal; orphans: 2; text-align: -webkit-auto; text-indent: 0px; text-transform: none; white-space: normal; widows: 2; word-spacing: 0px; border-spacing: 0px; -webkit-text-decorations-in-effect: none; -webkit-text-stroke-width: 0px;">
<div style="font-style: normal; font-weight: normal; word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space;">
-----------------</div>
<div style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space;">
Tess Wise<br>
PhD Candidate<br>
Harvard Department of Government<br>
<a href="https://urldefense.proofpoint.com/v1/url?u=http://tesswise.com&amp;k=AjZjj3dyY74kKL92lieHqQ%3D%3D%0A&amp;r=FP%2B5P1D6s%2F%2BVjnl7X4JoMk2WuI9z5vbGpIk%2FOQDICHE%3D%0A&amp;m=6ux4dhQp7NVCFh7A0U7YY%2Folj35SBc3iORaIdWBNk6k%3D%0A&amp;s=63ab2764dbc3eaa45a54e87fe6c30addc6aae66cbe2b4fa4ab7a4377edb4468b">http://tesswise.com</a><br>
<br>
<br>
<br>
<br>
<i><span style="font-family: Helvetica; orphans: auto; widows: auto;">Prediction and Interpretation with Latent Variable Models</span><br style="font-family: Helvetica; orphans: auto; widows: auto;">
</i><br style="font-family: Helvetica; orphans: auto; widows: auto;">
<span style="font-style: normal; font-weight: normal; font-family: Helvetica; orphans: auto; widows: auto;">Latent variable models provide a powerful tool for summarizing data through a set of hidden variables. &nbsp;These models are generally trained to maximize
 prediction accuracy, and modern latent variable models now do an excellent job of finding compact summaries of the data with high predictive power. &nbsp;However, there are many situations in which good predictions alone are not &nbsp;sufficient. Whether the hidden
 variables have inherent value by providing insights &nbsp;about the data, or whether we simply wish to improve a system, understanding what the discovered hidden variables mean is an important first step.</span><br style="font-family: Helvetica; orphans: auto; widows: auto;">
<br style="font-family: Helvetica; orphans: auto; widows: auto;">
<span style="font-style: normal; font-weight: normal; font-family: Helvetica; orphans: auto; widows: auto;">In this talk, I will discuss one particular model, GraphSparse LDA, for discovering interpretable latent structures without sacrificing (and sometimes
 improving upon) prediction accuracy. &nbsp;The model incorporates knowledge about the relationships between observed dimensions into a probabilistic framework to find a small set of human-interpretable &quot;concepts&quot; that summarize the observed data. &nbsp;This approach
 allows us to recover interpretable descriptions of clincially-relevant autism phenotypes from a medical dataset with thousands of dimensions.</span><br>
<br>
</div>
</span></div>
</span></div>
<br>
</div>
</div>
_______________________________________________<br>
gov3009-l mailing list<br>
<a href="mailto:gov3009-l@lists.fas.harvard.edu">gov3009-l@lists.fas.harvard.edu</a><br>
https://lists.fas.harvard.edu/mailman/listinfo/gov3009-l<br>
</blockquote>
</div>
<br>
</div>
</div>
</body>
</html>