Finalizei agora o curso “Learning XAI: Explainable Artificial Intelligence” oferecido na plataforma LinkedIn Learning.
É um curso introdutório, voltado para quem não conhece XAI ou apenas ouviu falar, o instrutor Aki Ohashi, fala diretamente para quem está em uma empresa trabalhando com machine learning e deseja saber mais sobre interpretabilidade de modelos e como isso pode ser útil para uma empresa.
É um bom começo para quem tem zero conhecimento sobre o assunto. Um curso rápido, em 1 hora e meia você é capaz de finalizá-lo tranquilamente.
Minha opinião sobre o curso
São 5 capítulos. Considero o capítulo 1 o única interessante pra quem deseja ter uma introdução sobre XAI, pra mim os capítulos 2 e 3 são desnecessários, o 4 mostra alguns exemplos, e o 5 fala algumas coisas sobre o futuro da adoção de XAI pelas empresas.
Dito isto, algumas considerações sobre o capítulo 1:
- Começa explicando o porquê XAI ser importante. Cita e mostra como exemplo as análises do artigo “Deep neural networks are easily fooled: High confidence predictions for unrecognizable images“, que mostra como é fácil enganar uma rede neural para que ela faça predições erradas com um alto nível de certeza;
- Cita (de forma superficial) 3 técnicas de XAI: LIME, RETAIN e LRP. Explica o contexto que elas foram criadas, mas não entra em detalhes sobre como funcionam;
- Fala sobre a necessidade do uso de XAI em alguns domínios. Aqui a forma que o instrutor fala é muito didática. Da pra ter uma excelente noção de como para determinados domínios, explicar o que o modelo está fazendo e o porquê dele ter feito uma determinada predição é importante. Por exemplo, uma predição errada sobre a recomendação de um produto na Amazon pode não ser um problema, mas uma predição errada de um diagnóstico médico ou de um investimento financeiro pode gerar grandes problemas;
- Esse capítulo também fala sobre a necessidade legal do uso de XAI, citando a GDPR (General Data Protection Regulation) que é a lei europeia que regula e protege o uso de dados dos cidadãos da União Europeia. Aqui no Brasil nós também temos um lei sobre isso a LGPD (Lei Geral de Proteção de Dados Pessoais). Ele cita o artigo 22 da GDPR sobre o direito do cidadão ter uma explicação sobre decisões automáticas feitas com os dados dele. Por exemplo, questionar porquê o banco negou um crédito. Nesse caso, se o banco usa um modelo de machine learning para concessão de créditos, fica difícil explicar o como o modelo chegou a conclusão para negar o crédito. O uso de XAI é extremamente necessário nessa situação. Não sei se existe esse “direito de explicação” na nossa LGPD, mas vale a pena procurar depois sobre isso.
- Por fim, o capítulo finaliza falando sobre as limitações de XAI de uma maneira geral, se se aprofundar nas limitações de técnicas específicas. Algo interessante que o instrutor questiona é que quanto mais complexos ficam os modelos de deep learning, mais complexas também ficam as explicações. Aí você fica se questionando: nesse caso, teríamos que ter explicações para as técnicas de explicações? Enfim, você você começar a se aprofundar e estudar as técnicas de XAI, você verá que algumas não são exatamente fáceis de compreender.
Não vou comentar os outros capítulos.
Se você quiser se aprofundar no assunto, eu sugiro o excelente livro do Christoph Molnar: Interpretable Machine Learning
Até mais e obrigada pelos peixes!