<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=UTF-8">
</head>
<body>
<p><br>
</p>
<p><br>
</p>
<p><br>
</p>
<p><br>
</p>
<div class="moz-cite-prefix">El 08/03/20 a las 19:34, Sandra Palau
escribió:<br>
</div>
<blockquote type="cite"
cite="mid:189261DF-9B85-40F6-8E1A-4A0C125FA6F9@sigma.iimas.unam.mx">
<meta http-equiv="Content-Type" content="text/html; charset=UTF-8">
<div class=""><br class="">
</div>
<div class="">Hola a Todos,</div>
<div class=""><br class="">
</div>
<div class=""><br class="">
</div>
<div class="">Los invitamos al seminario interno de esta semana.
En esta ocasión<b class=""> Mario Diaz </b>nos hablara sobre </div>
<div class=""><br class="">
</div>
<div class=""><br class="">
</div>
<div class=""><br class="">
Privacy Amplification of Iterative Algorithms via Contraction
Coefficients<br class="">
<br class="">
En el contexto de machine learning, recientemente fue
descubierta una fenomenología llamada "privacy amplification by
iteration". Como su nombre lo sugiere, esta fenomenología se
refiere al hecho de que la privacidad proporcionada por un
algoritmo iterativo (aleatorio) mejora al paso de
sus iteraciones. En esta charla introduciremos los elementos
básicos del problema, así como una forma de estudiar esta
fenomenología desde un enfoque de teoría de la información. En
particular, este enfoque se centra en dos ideas claves:
descomposición de kernels de Markov y coeficientes de
contracción.<br class="">
<br class="">
Trabajo en progreso con Shahab Asoodeh & Flavio Calmon: <a
href="https://arxiv.org/abs/2001.06546" class=""
moz-do-not-send="true">https://arxiv.org/abs/2001.06546</a></div>
<div class=""><br class="">
</div>
<div class=""><br class="">
</div>
<div class=""><br class="">
</div>
<div class=""><br class="">
</div>
<div class=""><br class="">
</div>
<div class=""><br class="">
</div>
<div class="">Los esperamos este <b class="">miércoles 11 de
Marzo a la 1:15 pm</b> en el salón <b class="">201 del IIMAS,</b></div>
</blockquote>
</body>
</html>