Deep Learning Indaba 2019

Strengthening African Machine Learning

Sauti Yangu From Deep Learning Indaba 2019

Cet article est destiné à tous les passionnés de l’Intelligence Artificielle (IA), l’apprentissage automatique (Machine Learning), l’apprentissage profond (Deep Learning), de la science de données (Data Science), des données massives (Big data), etc. Cette année fut ma première participation au Deep Learning Indaba 2019 qui s’est tenu à Nairobi au Kenya. Je m’apprête à vous plonger dans une semaine submergée de partage de connaissances et de culture dans le domaine du deep learning.

 

Qu’est ce que Deep Learning Indaba ?

C’est une question qui revient tout le temps, et ça me fait toujours plaisir d’y répondre, car c’est dans ce sens que nous pouvons participer ensemble au levé de Sauti Yetu (notre voix). Les termes “Sauti Yetu” (notre voix) et “Sauti Yangu” ( ma voix) proviennent du Swahili qui est une langue partagée par les pays de l’Afrique de l’Est. L’utilisation de “Sauti Yangu” (ma voix) se justifie par rapport à ma propre expérience au Deep Learning Indaba 2019.

Toute chose a une histoire, une origine alors tout d’abord, c’est quoi Indaba ? Indaba est un mot Zoulou qui signifie rassemblement. Deep Learning Indaba est un rassemblement annuel des communautés et passionnés de l’apprentissage automatique (Machine Learning) en Afrique. Il vise à renforcer la communauté africaine de Machine Learning à travers un retour d’expérience des chercheurs, professionnels et étudiants du domaine. C’est une semaine de partage, d’apprentissage, de recherches, de débats sur l’état de l’art de l’apprentissage automatique (Machine Learning) et de l’IA (Intelligence Artificielle). Cette année, l’événement s’est tenu du 25 au 30 août 2019 à l’Université Kenyatta à qui de passage, je remercie les membres avec l’accueil chaleureux qu’ils nous ont donné. L’événement a accueilli environ 700 membres et plus de 27 nationalités différentes, un mélange de culture fantastique.

Dans cet article, nous allons parler des Keynotes, suivi des Sessions (spéciales et parallèles), ensuite des Travaux pratiques et pour finir du Hackathon.

 

Keynotes:

Cette année le #DLIndaba2019 a accueilli plusieurs keynotes dont:

Keynote 1 : L’innovation pour un impact mondial ; Mon parcours en tant que chercheur

Cette keynote a été animée par Aisha Walcott-Bryant d’IBM Research Africa Kenya, PhD Research Scientist Manager AI Science and Engineering Water-AI-Healthcare.

Tirer parti de l’IA pour des solutions innovantes en Afrique était l’idée générale de sa présentation. En effet, Avec plus de 1 milliard de personnes, plus de 2 000 langues et plus de 3 000 groupes ethniques, les “Problèmes rencontrés dans le contexte de l’Afrique sont riches et complexes que les solutions que nous créons ici profiteront au monde entier.” Des problématiques soulevées pouvant mener à plusieurs pistes de réflexions.

Qui d’autre développera des algorithmes de découverte de médicaments qui comprennent les comorbidités de l’Afrique ?

Qui d’autre comprendra le lien entre l’eau et l’agriculture pour renforcer la sécurité alimentaire et mettre fin à la famine?

Qui d’autre créera des technologies d’apprentissage pour aider les élèves qui codent de basculer entre les langues locales et nationales ?

Les questions ci-dessus pourront susciter votre esprit de chercheur ou d’entrepreneur à réfléchir sur la création d’une solution adaptée.

La scientifique d’IBM Afrique au Kenya a donné trois exemples de solutions innovantes :

  • la coordination des soins avec une étude de cas au Kenya sur la gestion des maladies chroniques.
  • l’intervention contre le paludisme et la planification des politiques en utilisant le Machine Learning pour cibler les pays les plus touchés.
  • relever les défis de la mobilité et de la circulation dans les villes en développement (étude de cas Kenya Nairobi)

Ces solutions sont le fruit d’un processus de travail bien défini et de l’engagement de toutes les parties prenantes tel que :

  • Immersion dans le domaine problématique
  • Le Design Thinking `
  • Des collaborations academiques
  • Les collaborations transversales
  • L’engagement de l’écosystème
  • Produit minimum viable (MVPs)
  • Pilotes et études, ..

 

Keynote 2: Exploiter la bioinformatique et l’IA pour offrir plus de précision

Abdoulaye Baniro Diallo Ph.D, Co-fondateur et Directeur Scientifique de MIMS a présenté son travail sur comment utiliser la Bioinformatique et l’IA pour donner plus de précision en matière de Santé et de production de nourriture. Pour ceux qui ne connaissent pas, la Bioinformatique est une science qui combine la biologie, les statistiques et l’informatique. Cette image est une illustration de la synergie de travail qui pourrait se créer entre les biologistes, les data scientists et les chercheurs dans le domaine médical.

Deep Learning Indaba
Travaux des biologistes, des data scientists et des médecins chercheurs sur la médecine génomique

Depuis 2006, nous assistons à une croissance exponentielle des données génétiques. Ces données sont sous différentes formes. Face à cela, les problématiques de l’IA dans la science de la vie sont importantes :

  • Temps d’exécution
  • Précision des algorithmes (y compris AI)
  • Traitement de données massives
  • Calcul Intensif
  • Plusieurs modèles complexes
  • Suivi des connaissances et de la qualité scientifique
  • Traitement de données hétérogènes et/ou partielles

Dans ce sens, les sujets importants où l’IA peut avoir un impact sont les suivants:

  • Analyse prédictive des soins actifs
  • Analyse de soins ambulatoires intensifs
  • Santé de la population
  • Analyse du vieillissement sur place
  • Génomique/Oncologie
  • Évaluation d’image radiographique
  • Flux de travail du médecin
  • Utilisation / Optimisation IoT
  • Intégration d’image (différentes sources)
  • Évaluation tissulaire (Morphologie quantitative)

Pour déployer une solution de Machine Learning dans le domaine de la santé, il faut une feuille de route bien définie. L’image suivante est un exemple à suivre.

Comment appliquer le machine learning à la santé ?
Application des techniques de machine learning au domaine de la santé

À cela, s’ajoutent les challenges de volume de données, de la temporalité, de la complexité du domaine et de l’interprétation. L’IA est naissante dans le domaine de la santé, il y a des opportunités à saisir telles que : un enrichissement des fonctionnalités, une inférence fédérée, une confidentialité des modèles, l’intégration des connaissances spécialisées, la modélisation temporelle, la modélisation interprétable.

Enfin, l’IA peut s’appliquer dans la prédiction des maladies à risque, des prescriptions personnalisées, la recommandation de traitement, etc.

 

Keynote 3: au-delà des mots à la mode (innovation, inégalité et imagination au 21e siècle)

Ruha Benjamin nous a fait survoler au-delà des buzzwords (AI, Deep Learning). Cette keynote selon moi ne peut être décrite parfaitement, c’était juste génial d’y assister. Il est vrai qu’on parle de Deep Learning, AI, Machine Learning, mais sommes-nous pas en train de recréer notre propre société avec tous ses défauts dans ces algorithmes. La soif de pouvoir des gens, toujours vouloir piétiner son prochain. En 1863, Abe Lincoln libéra les esclaves, mais en 1965, l’esclavage reviendra ! Nous aurons tous des esclaves personnels à nouveau … Ne vous inquiétez pas. Nous parlons de robots « esclaves » … Cette vision d’Abe Lincoln, ne serait-elle pas en train de se répéter. Au-delà de la diversité, le code de jugements des algorithmes. Des designs discriminatoires de l’époque, ne seraient-ils pas en train de se produire sur nos algorithmes. “La vraie compassion, c’est plus que lancer une pièce à un mendiant. Cela arrive lorsque l’édifice, qui produit le mendiant, a besoin d’une restructuration”.

-MLK. Ce que nous pouvons prendre en compte est que :

  • Le racisme est productif ; il construit
  • La race et la technologie sont coproduites.
  • L’imagination est un champ d’action

Voici deux livres de Ruha qui vont vous donner une compréhension claire du problème (voir l’image).

Sommes-nous pas en train de recréer notre propre société avec tous ses défauts dans les algorithmes de Machine Learning ?
Race after technology et Captivating technology de Ruha Benjamin

L’exemple d’une application qui vous prête de l’argent en cas de besoin au Kenya. Les pauvres étaient les premiers en à bénéficier de cette application de prêt digital ; et maintenant, ils l’appellent de l’esclavage. Comme l’a dit un chercheur de Nairobi : ces applications « vous donnent de l’argent doucement, puis elles viennent pour votre cou. » Des algorithmes qui donnent des discriminations par défaut. C’est de notre faute si l’IA pense que les noms de gens de couleur blanches sont plus plaisant que ceux des noirs. Les algorithmes de traitement du langage largement utilisés, entraînés sur Internet par la rédaction humaine, reproduisent les préjugés humains selon des critères racistes et sexistes. Un article de Jordan Weismann en octobre 2018 dit que “Amazon a créé un outil de recrutement basé sur l’IA. Il commence directement à faire une discrimination des femmes”. Il y a une responsabilité technologique que nous devons adopter pour ne pas reproduire l’histoire. Nous assistons à des constructions de mouvements “Deep Learning Indaba”, “Data for black Lives”, “Detroit community Technology Project”, “Digital Defense Playbook”, La proposition finale est si l’inégalité est intégrée au tissu même de la société, chaque tour, chaque Bobine, code est une occasion pour nous de tisser de nouveaux modèles, de nouvelles pratiques, de la politique. L’immensité sera son anéantissement une fois que nous accepterons de devenir des « modèles ».

 

Keynote 4: En quête d’un impact sur la recherche à la base – Le rôle de l’IA

Dr Ciira wa Maina de l’université de Dedan Kimathi nous a fait l’honneur d’être notre speaker de la 4e Keynote. Toujours dans le même sens comment l’IA pourrait impacter le développement de notre continent. Cet impact se fera surtout à travers un mentorship :

Une des grandes responsabilités des membres les plus âgés de la communauté d’Amnesty International consiste à fournir des exemples de travaux importants. Il est important que les étudiants parmi nous identifient des modèles. Il nous a fait part d’une étude qu’il a menée au Kenya sur un projet de bioacoustic. Combiner l’IOT et le machine Learning pour résoudre les problèmes écologiques marqués par une dégradation de l’environnement, le changement climatique. Dans le monde entier, les moyens de subsistance ont été grandement affectés. Ceci est une motivation pour trouver des solutions qui vont préserver notre écosystème. Les données qui ont servi pour cette étude proviennent de part et d’autre :

  • des données acoustiques de 2700 enregistrements d’oiseaux
  • des méthodes traditionnelles d’enquête sur les oiseaux – nombre de points,
  • 300 enregistrements annotés par des ornithologues experts de NMK,
  • les données disponibles sur Data Dryad (un enregistrement bio-acoustique d’une conservation dans l’écosystème du mont Kenya)

La première étape était d’examiner la fréquence de l’occurrence des espèces dans les comptages ponctuelles et les annotations audio. Les données contiennent les espèces de notre périmètre d’étude.

6 enregistrements au premier plan de l’aigle couronné et 12 enregistrements au premier plan du Hartlaub’s Turaco.

Pourquoi le besoin d’utiliser le Machine Learning ?

  • les enregistrements acoustiques génèrent beaucoup de données,
  • le temps et cherté de l’annotation de données.

Les données d’entraînement des premiers modèles proviennent du site Xeno-canto (http://www.xeno-canto.org) qui est un site dédié au partage d’enregistrement de sons d’oiseaux partout dans le monde . Ces données d’une taille de 60 go proviennent de l’Amérique du Sud et ont été utilisées dans le challenge Birdclef 2016 (https://www.imageclef.org/lifeclef/2016/bird). Après

avoir obtenu les spectrogrammes, ceux-ci sont utilisés comme entrée dans un CNN de six couches de convolution et 2 couches entièrement connectées.

Les nouvelles architectures incluent des couches récurrentes pour tenir compte de la dépendance temporelle des entités.

Un modèle pré-entraîné utilisant des données « BirdClef » est ensuite ajusté à l’aide de données Xeno-canto pour le Kenya. Les résultats sur les espèces d’Amérique du Sud ont servi à avoir les résultats les espèces du Kenya en utilisant le Transfert Learning. Les perspectives pour ce projet seront d’améliorer la précision du modèle, explorer les « Deep architecture », améliorer le traitement de données. Les clés pour impacter dans ce domaine de l’IA sont entre autres :

  • Se concentrer sur un problème important
  • Focus sur l’acquisition de données et la familiarité
  • Collaboration avec des experts du domaine
  • Patience

Des projets d’IOT en agriculture et en surveillance des ressources en eau sont en vue.

 

Keynote 5: L’avenir de l’apprentissage multitâche

Aujourd’hui, nous assistons à une évolution remarquable de l’IA grâce à la puissance de calcul des ordinateurs. Richard Socher, Chief Scientist à Salesforce donne un aperçu de ce qu’on peut attendre du futur de l’IA. Du machine learning avec feature engineering aux architectures d’une seule tâche, le futur de l’IA s’avère prometteur avec l’apprentissage multitâche.

Algorithmes et Modèles en Data Science
Les limites d’un modèle d’apprentissage d’une seule tâche

Les modèles d’apprentissage d’une seule tâche ont des limites telles que :

  • Améliorations notables des performances ces dernières années compte tenu des datasets, tâches, modèles et métriques.
  • Nous pouvons grimper aux optima locaux tant que le jeu de données est suffisamment grand
  • Pour l’IA généraliste, nous avons besoin d’un apprentissage continu dans un seul modèle.
  • Les modèles partent généralement de manière aléatoire ou ne sont que partiellement pré-formés

Cette attente de l’avancée du NLP s’explique par le fait que ce dernier requiert pas mal de types de raisonnement, requiert une mémoire à court et à long terme, le fait qu’il soit diviser en tâches intermédiaires et disparates et aussi les langues semblent nécessiter beaucoup de surveillance dans la nature. Avec les modèles à tâches multiples, nous aurons un vrai modèle NLP généraliste, nous pourrions laisser aux modèles de choisir comment transférer la connaissance, un creuset parfait pour étudier :

  • Le partage de poids et de modèles
  • Transférer l’apprentissage (idéalement pour améliorer les performances)
  • L’apprentissage zéro
  • L’adaptation de domaine

Un seul modèle est plus facile à déployer en production et facilite le travail pour quiconque de résoudre son problème de NLP.

Alors pour un futur de l’IA, il faut s’attendre à un développement de ce modèle d’apprentissage à tâches multiples.

 

Keynote 6: Vers l’amélioration des décisions en matière de santé grâce à l’apprentissage par renforcement

Présenté par Finale Doshi-Velez, le thème de ce keynote fut la prise de décision dans l’incertitude. Plus précisément centré sur la question suivante :

comment l’apprentissage par renforcement peut-il aider à la prise de décision du traitement ? Nous avons deux approches pour ce type de problème que sont:

 

1.       l’approche commune: création du modèle

la création de modèle pour solutionner le problème à long terme, mais avoir un modèle réaliste reste un défi. (e.g. Ernst 2005; Parbhoo 2014;Marivate 2015)

 

2.       l’approche commun : Trouver un voisin

Appliquez les noyaux pour prédire les résultats immédiats (par exemple, Bogojeska 2012), mais échoue s’il n’y a pas de voisins.

Ces approches ont des forces complémentaires.

  • Les patients des groupes peuvent être mieux modélisés par leurs
  • Les patients sans voisins peuvent être mieux modélisés avec un modèle paramétrique.

Application à la gestion du VIH

Avec 32,960 patients provenant de la base de données EU Resist; nous avons retenu 3 000 pour les test. Les observations sur CD4s, viral loads, mutations. Les actions avec la combinaison de 312 médicaments communs (provenant de 20 médicaments). Il ne reste plus qu’à mettre les données dans le modèle. Ainsi, nous remarquons que notre hypothèse de départ était correcte. Le modèle utilisé avec des voisins sont éloignés.

 

Application à la gestion du sepsis

Avec une cohorte de 15 415 patients atteints de septicémie à partir du jeu de données MIMIC (identique à Raghu et al. 2017); contient des signes vitaux et des tests de laboratoire.

L’action est de se concentrer sur les vasopresseurs et les fluides, utilisés pour gérer la circulation. L’objectif de ce travail est de réduire la mortalité à 30 jours. Pour augmenter une confiance sur nos résultats, nous pouvons vérifier si nos politiques sont raisonnables.

Pour plus de détails sur cette keynote, envoyez moi un mail de demande d’accès au drive.

 

Keynote 7: Quelques réflexions récentes sur l’apprentissage par transfert

Cette keynote est aussi technique que le précédent et a été présenté par Samory Kpotufe de Columbia University.

La problématique est la suivante :

Peut-on implémenter rapidement le transfert de connaissance en Machine Learning ?

Dans cette keynote de Transfer Learning, nous faisons un focus sur le covariate shift c’est-à-dire qu’on entraîne l’algorithme sur une population P mais nous visons une population Q. Exemple : un logiciel de vision entraîné sur une population US qui sera déployé au Kenya. Les problèmes liés à la vision par ordinateur sont partout même aux USA: Races connues + le biais du genre dans les logiciels de vision (35% des femmes à la peau plus sombre mal identifiées par Microsoft Vision, 2018). On retrouve ce problème dans plusieurs applications critiques : l’IA dans le système judiciaire, en médecine, en génomique, dans les industries d’assurance, etc. Ce problème est souvent juste financier. Les données coûtent cher et sont difficiles à obtenir. La solution évidente est de le rendre moins cher en réduisant l’échantillonnage des données cibles possible. La question est combien de données sources pourront nous servir?

Les questions basiques à se poser sont les suivantes :

  • La source P contient-elle suffisamment d’informations sur la cible Q ?
  • Si non, combien de nouvelles données devrions-nous collecter et comment ?
  • Les données cibles non étiquetées seraient-elles suffisantes ? Où aider au moins ?

Ce qu’il faut comprendre ici est l’avantage relatif des échantillons sources et cibles.

Si vous voulez savoir sur les détails techniques, vous pouvez demander par mail l’accès à mon dossier de partage.

 

Sessions spéciales :

Les sessions spéciales se sont déroulées dans la Journée de recherche Indaba. Ils étaient 21 à présenter leur projet de recherche séparés en 2 spotlights.

 

Premier Spotlight session:

  1. Jecinta Mulongo, Détection d’anomalies dans une centrale électrique utilisant les techniques de Machine
  2. Fauste NDIKUMANA, Système de surveillance pour lutter contre le légionnaire d’automne dans les cultures

Étude de cas : le maïs au Rwanda

  1. JEAN AMUKWATSE, Laboratoire d’essais mobiles du sol (SoMiT Lab)
  2. Edna Milgo, une MCMC basée sur l’optimisation stochastique
  3. Olaniyan Oluwasegun Emmanuel, Développement d’un modèle de régression à cibles multiples Pour prédire les propriétés physiques et chimiques du sol
  4. Mohamed Tarek Shaaban Dawoud, auto-conduite conditionnelle de bout en bout de Sim à Réel Véhicule à travers la perception visuelle
  5. Deborah Dormah Kanubala, algorithmes d’évaluation du risque pour les agriculteurs du petit exploitant réglage.
  6. Honoré Mbaya, Prototype d’une technologie sémantique pour la revue Congo-Afrique
  7. Kale-ab Tessera, Learning compact, architectures de réseaux de neurones
  8. Allan Ocholla, Gouvernance algorithmique : la nouvelle normalité
  9. Pius Nyanumba, modélisation de processus gaussienne en synthèse de mesure de rotation

 

Second spotlight session:

  1. AYADI Alaeddine, Classification de la vue de pose du produit à l’aide d’une intégration unifiée avec des modèles de perte de triplet et d’arbre renforcé de gradient
  2. Arnaud Nzegha, Augmentation des données et reconstruction 3D
  3. Mouad Riyad, Réseau de neurones convolutionnel-récurrent profond pour la classification SMR
  4. Ali Bosir, Automatisation avec IOT et PNL
  5. Sam Masikini, Les défis de la reconnaissance et du comptage automatiques au Malawi Billets de banque
  6. Francis Chikweto, Patient Surveillance des signes vitaux avec intégration profonde de Learning
  7. Texte intégral basé sur l’appariement attentif bidirectionnel Getenesh Teshome Reconnaissance par Deep Learning
  8. Samantha Van Der Merwe, Prédire les troubles sociaux en Afrique du Sud
  9. Elizabeth Benson, Modèle de prévision et de routage du trafic routier urbain avec HMM Rihab Gorsane, Hybrid approach for order-based optimization using Evolutionary

Algorithms : Case of Capacitated Vehicle Routing Problem.

 

Comment écrire une bonne proposition de recherche ?

Présenté par Daniela Massiceti (University of Oxford), Laura Sevilla (University of Edinburgh) et George Konidaris (Brown University).

Une proposition de recherche est une description du travail que vous voulez faire durant votre PhD (3-5 années de recherche) et votre motivation.

La proposition doit être soie :

  • Nouvelle, quelque chose qui n’a jamais été fait
  • Meilleur (plus précis et plus efficient) Cette proposition de recherche est utilisée lors :
  • Candidatures au doctorat !
  • Subventions : fonds octroyés pour des projets, provenant souvent du gouvernement, d’entreprises, etc. Les seniors (Comme les professeurs)
  • Bourses d’études et bourses : fonds pour étudiants, post-doctorants ou même

77 % des personnes interrogées pensent que c’est le document le plus important ou le deuxième dans votre candidature de doctorat.

Un PhD est le diplôme universitaire qui valide vos compétences à faire de la recherche. Les prérequis sont différents selon les pays :

  • Aux États-Unis: un doctorat dure cinq ou six ans, dont deux consistent à suivre des cours et le reste à faire de la recherche. Une maîtrise pourrait être un avantage, mais ce n’est pas nécessaire. Les étudiants ont tendance à obtenir leur diplôme avec 3 documents de conférence forts dont ils sont les premiers
  • Au Royaume-Uni, en Allemagne, en Suède, : un doctorat dure 3 à 4 ans et les cours sont souvent optionnels. Il est donc utile de venir avec un diplôme de maîtrise, bien que cela ne soit pas nécessaire. Les meilleurs étudiants peuvent également obtenir un diplôme avec 3 papiers, mais ce n’est pas une obligation.
  • En Afrique : un doctorat est généralement un diplôme d’une durée de trois ans, suivi d’une thèse, suivi d’une maîtrise.

Des exemples de débouchés :

  • Professeur d’université : recherche, enseigne,
  • Chercheur scientifique (Par exemple : dans une entreprise) : écrit des articles, peut-être un peu dans le développement de produit …
  • Ingénieur de recherche (Par exemple : dans une entreprise) : développe l’infrastructure d’ingénierie nécessaire à la réalisation de la

Un PhD permet d’avoir une certaine flexibilité de travail, obtenir facilement un visa, un travail plus indépendant, plus créatif. Le salaire peut facilement dépasser 120 K dollars par an.

 

Sessions parallèles :

Je n’ai pas fait de résumé pour ces sessions. Elles sont au de nombres de 15. Vous pouvez chercher dans la liste ci-dessous celles qui vous parlent le plus et me faire une demande par mail pour avoir accès aux présentations.

  • AI in Kenya (ANALYTICS AT AFRICASTALKING, Design Thinking in Data Science, Transfer Learning in Credit Scoring)
  • AI_Fairness (Deep Learning for Diabetic Retinal Disease Diagnosis in Zambia, Explaining Deep Learning for natural Language understanding, ICT access in Africa the age of Artificial Intelligence)
  • La data science en pratique
  • ML in Resource Constrained Environments Machine Learning pour la Santé
  • Natural Language Processing
  • Optimisation bayésienne et la recherche des Hyperparamètres Modèles Génératifs profonds
  • Les fondamentaux de l’apprentissage profond
  • Les fondamentaux de l’apprentissage par renforcement
  • Les réseaux de neurones récurrents
  • Informatique, Caméra piège photographique et conservation : comment l’apprentissage automatique peut-il informer l’écologie ?
  • Mesurer le Développement économique depuis l’espace Startups & Innovation
  • Introduction à l’Inférence Bayésienne

 

Travaux pratiques :

C’est bien de lire le travail d’autrui pour essayer de comprendre, mais pour être bon en IA, Data science, il faut pratiquer. Ces sessions pratiques sont en quelque sorte un complément ou la partie appliquée de certaines sessions parallèles. Les travaux pratiques que nous avons eu faire lors du Indaba sont les suivants:

  • Introduction à python
  • Fondamentaux de l’apprentissage automatique (ML Fundamentals)
  • Construire sa propre librairie TensorFlow (Build your own TensorFlow)
  • Fondamentaux de l’apprentissage profond (Deep Nets fundamentals)
  • Optimisation
  • Réseaux convolutionels (Conv nets)
  • Modèles Génératifs (Generatives Models)
  • Réseaux récurrents (Recurrent nets)
  • L’apprentissage par renforcement (Reinforcement Learning)

 

Hackathon Track :

Deux hackathons ont été organisés tout au long de la semaine dont:

 

  • Snapshot Serengethi
Parc national du Serengeti
Le plus grand projet de caméra au monde

Snapshot Serengeti est le plus grand projet de caméra au monde avec 225 pièges à caméra Courir continuellement dans le parc national du Serengeti, en Tanzanie.

Il y avait 3 defis à relever:

  • Défi de reconnaissance des espèces: Obtenir la meilleure précision moyenne par espèce.
  • Défi de dénombrement des animaux: Comptez le nombre d’animaux sur chaque photo.
  • Défi créatif: tout est permis. Sois créatif!

Des groupes de travail ont été formés, j’ai participé en tant que membre du groupe “HackSerengethi”. Félicitations aux gagnants des challenges.

Voici l’équipe du Hackathon (Participants et organisateurs)

Parc national du Serengeti
Equipe gagnante du Serengeti Hackathon

 

  • Malaria focus on Reinforcement learning

 

Comment éradiquer le malaria ?
Utilisation du reinforcement learning pour déterminer la combinaison optimal d’intervention afin d’éradiquer le malaria

Publié sur le site Web de Zindi, Ce défi n’était ouvert qu’aux participants du Deep Learning Indaba 2019. On pense que le paludisme a été le fardeau de la maladie le plus lourd de tous les temps, alors qu’il continue de représenter un fardeau de santé mondial considérable et disproportionné. Les participants devaient utilisés l’apprentissage par renforcement, afin de déterminer de nouvelles solutions susceptibles d’avoir une incidence sur la politique antipaludique en Afrique subsaharienne. Plus précisément, les participants au défi ont soumis des solutions permettant de déterminer la manière dont les combinaisons d’interventions contrôlant la transmission, la prévalence et les résultats pour la santé de l’infection par le paludisme devraient être distribuées dans une population humaine simulée. C’est un défi pour l’Afrique d’éradiquer cette maladie qui continue à faire des ravages et nous pensons qu’avec l’intelligence artificielle une solution est bien possible.

Je termine cet article en remerciant toute l’équipe du Deep Learning Indaba, la coordinatrice de cet année Katleen Simiyu, l’université du Kenya, les participants venus de tous les coins du monde et pour finir la team Google Deepmind qui ont sponsorisé tous les frais de mon voyage en particulier Avishkar Bhoopchand et Ulrich Parquet avec qui je partage cette belle photo.

#SautiYetu, #DLIndaba2019, #GalsenAI, #IndabaXsn #Datascientistenthusiast

Twitter : https://twitter.com/DeepIndaba

Médiathèque :

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *