Expert in Computer Technology defends our right to contest!

As the use of machine learning has been consolidated in the business sphere, it has become clear that in most cases, it is not enough to predict a certain value, but knowing the reason can be crucial. Deep neural networks obtain the best percentages of success in prediction. Unfortunately, these techniques, known as black box, involve a very high complexity of interpretation. Does it mean that we have to resign? Or that you have to resign yourself to not being able to explain those models that are really effective? These and other questions are answered during this session.

A medida que el uso del aprendizaje automático se ha ido consolidando en la esfera empresarial, se ha puesto de manifiesto que en la mayoría de casos, no es suficiente en predecir un determinado valor sino que conocer el motivo puede ser crucial. Las redes neuronales profundas, obtienen los mejores porcentajes de éxito en la predicción.Desafortunadamente, estas técnicas, conocidas como black box, comportan una complejidad de interpretación muy elevada. ¿Significa pues que tenemos que renunciar? ¿O que hay que resignarse a no poder explicar aquellos modelos que son realmente efectivos?Estas y otras preguntas son contestadas durante esta sesión.

Participa: Ricardo Baeza-Yates, CTO, NTENT, y Director de Programas de Postgrado en Computación en la Northeastern University (Silicon Valley, EE.UU).

http://www.baeza.cl/

https://www.youtube.com/watch?v=2R6g7alGbY0&feature=youtu.be&t=1449

https://www.youtube.com/watch?v=2WEg4Um4gZ0&index=11&list=PLHIPVfO2JGnrnamDmkqt5upp7GufvDUtk

51R21Cu-z+L._SX359_BO1,204,203,200_

Você também pode gostar