Google I/O 2017 et les applications de l’intelligence artificielle

Comme plusieurs enthousiastes de la plateforme Google, j’ai assisté en mode différé à la conférence d’ouverture de Google I/O plus tôt cette semaine.  Cette rencontre annuelle des développeurs est l’occasion de découvrir les nouvelles applications issues des travaux effectués par la compagnie et sa communauté, notamment en lien avec l’intégration de l’intelligence artificielle et qui deviendront bientôt accessibles au grand public.  Par la fusion de l’IA avec la reconnaissance du langage et des images, les assistants personnels, le traitement des mégadonnées et l’infonuagique, Google a pour objectif d’offrir de nouvelles possibilités à ses usagers et de les intégrer à son écosystème d’applications sur les appareils mobiles, qui peuvent alors être utilisés dans différents contextes, dont la formation.

Parmi les annonces d’intérêt:

  1. Google Lens: cette application permet de faciliter la reconnaissance contextualisée en temps réel des images captées par la caméra d’un téléphone intelligent.  Cette reconnaissance va plus loin que la simple identification des éléments, en permettant d’automatiser certaines actions pour l’usager.  Une démonstration montrait comment une personne qui est au restaurant peut pointer un menu et obtenir une traduction immédiate du texte, arrimée à des critiques des internautes sur les réseaux sociaux concernant la qualité des mets.  Une autre démonstration montrait comment établir une connexion à un réseau sans-fil à domicile, simplement en captant l’image de l’étiquette comportant la clé qui est normalement fixée en dessous d’un routeur.
  2. Daydream: cette plateforme intégrant la réalité virtuelle et augmentée avait été annoncée l’an dernier, mais s’ouvre maintenant à un écosystème élargi passant par les casques produits par différentes compagnies, mais aussi un soutien plus important pour les appareils mobiles que possèdent déjà les usagers par des applis offertes par Google.  Une vidéo montrait comment intégrer l’usage d’un téléphone intelligent fixé à une perche à égoportraits (« selfie stick ») pour pointer la caméra sur un objet virtuel apparaissant à un endroit précis dans une salle de classe – on voit immédiatement des possibilités intéressantes dans différents domaines, incluant la conception de prototypes de tous genres, l’examen de reliques anciennes ou de textes difficiles à obtenir, etc.
  3. Des outils complémentaires pour Google Photos, où des algorithmes sophistiqués permettent de « nettoyer » des photos de façon intelligente, en passant par la suppression d’obstacles mais aussi la reconnaissance des visages et le partage avec des groupes.
  4. VPS (pour « Visual Positioning System »): service perçu comme étant complémentaire à la géolocalisation par GPS, VPS permet la reconnaissance visuelle des objets pour guider les personnes dans différents environnements.  Un GPS pourrait par exemple faciliter le repérage d’un bâtiment à visiter, et une fois rendu sur place, l’usager pourrait utiliser VPS pour localiser et identifier les caractéristiques de différents objets sur des tablettes ou des présentoirs.
  5. Google Home: l’assistant annoncé par Google l’an dernier fait compétition à Alexa, produit par Amazon.  Malgré ses débuts plutôt modestes, Google continue à améliorer l’appareil en y intégrant la possibilité d’effectuer des appels sur son téléphone intelligent et de rendre cette fonctionnalité accessible aux différents membres d’un groupe ou d’une famille en y intégrant la reconnaissance vocale.  L’assistant pourra également lancer certains avertissements de façon proactive (sans avoir besoin de poser une question au préalable).  Un exemple qui a fait l’objet d’une démonstration: avertir la personne qui gère ses rendez-vous dans son calendrier de problèmes possibles de circulation routière.

À noter: l’assistant sera aussi rendue disponible pour d’autres plateformes, incluant celle d’Apple.

Source: Lee, Dave.  The five big announcements from Google I/O.  BBC News Technology, 18 mai 2017.

 

 

Et si on comptait sur la métacognition plutôt que les styles d'apprentissage?
Comment John Hattie défend les chiffres de Visible Learning

Exprimez-vous !

*