Articles

IA Quantique - Partie 3 - Le soulèvement des IA

Image
Précédemment, dans l’IA Quantique, on a vu que l’informatique quantique serait en principe capable d’accroître sensiblement la vitesse d’exécution de certains algorithmes de Machine Learning. Cela est dû au fait que certains phénomènes siégeant au coeur de tels ordinateurs (superposition des états, intrication des qubits, décohérence des états superposés, réduction brutale du paquet d’ondes) permettent de paralléliser les calculs en stockant plusieurs informations (superposées) avec une même particule. En accélérant considérablement certains traitements algorithmiques, on comprend que la quantique permettra aux IA de résoudre de nouveaux problèmes. Certains vont plus loin encore et y voient même un potentiel pour rendre un cerveau artificiel aussi performant que celui des humains, capable notamment d’intégrer des concepts abstraits comme la conscience et les sentiments. La question qui se pose alors est de savoir si l’IA quantique serait plus susceptible de devenir une “IA forte”… D...

L'intelligence artificielle, une mécanique à apprivoiser

Image
Pionnières de l’analytique par l’importante quantité de données disponibles et par les enjeux financiers sous-jacents, les entreprises du secteur bancaire et de l'assurance s’interrogent encore sur la véritable valeur ajoutée de l’intelligence artificielle (IA) dans leurs processus décisionnels. L’intelligence artificielle est un ensemble de théories et de techniques visant à doter les machines de capacités d’apprentissage et de raisonnement, analogues en certains points à celles des humains. Or le machine learning, c'est-à-dire l'apprentissage automatique, et le traitement du langage naturel (NLP), les deux composantes principales de l’intelligence artificielle, sont a priori particulièrement adaptés à la valorisation des données et à l’automatisation de certains processus métiers du secteur bancaire (?).  1. Périmètre de l'intelligence artificielle (source : Saagie) Résumer des amas complexes de données Le machine learning revêt un double intérêt. Il p...

IA Quantique - Partie 2 - Faites vos jeux !

Image
Précédemment, dans l’IA Quantique, on a vu que l’informatique quantique permettrait en théorie d’exécuter un certain nombre d’algorithmes complexes de machine learning en un temps “raisonnable” (qui ne prennent pas des années…). Mais la question est maintenant de comprendre ce qu’il y a de si différent dans un ordinateur quantique par rapport aux ordinateurs actuels. Cet article vise à décrire – le plus simplement possible – le fonctionnement d’un tel ordinateur et s’achèvera sur l’exemple d’un algorithme quantique. Le but n’est donc pas de rentrer dans le détail théorique d’un tel ordinateur mais bien d’illustrer simplement les différences fondamentales entre algorithme classique et quantique. La notion de bits – L’analogie avec une pièce de monnaie Pour comprendre les raisons pour lesquelles les calculs sont potentiellement bien plus rapides dans un ordinateur quantique, il faut déjà se remémorer le fonctionnement général  des ordinateurs classiques. Ils utilisent des bits p...

IA Quantique - Partie 1 - En finir avec l’impuissance !

Image
“IA” et “quantique”, et voilà deux buzzwords pour le prix d’un ! Plus sérieusement, même si j’ai conscience qu’il est délicat de vouloir creuser deux domaines aussi vastes avec quelques articles, il me semblait important d’essayer d’exposer au plus grand nombre, et le plus fidèlement possible, les avantages et inconvénients de l’informatique quantique appliquée à l’intelligence artificielle et plus particulièrement au machine learning. Le principal problème sous-jacent est celui de la limitation de nos capacités de calcul pour l’exécution de certains algorithmes lourds. En effet, bien que la puissance de nos équipements ait plus que décuplé ces trente dernières années, il faut comprendre que nous serons toujours plus consommateurs de ressources, et que l’informatique traditionnelle pourrait un jour ne plus être en mesure de répondre à certains de nos besoins d’analyse en lien avec le Big Data et l’Internet des Objets. La mécanique quantique est aujourd’hui vue comme une des solutions ...

10 minutes pour comprendre la Data Science et le Deep Learning

Interviews téléphoniques sur Radio Village Innovation : 5 minutes pour comprendre la Data Science https://radiovillageinnovation.com/broadcast/68237-Le-Data-Mining-ou-data-science 5 minutes pour comprendre le Deep Learning https://radiovillageinnovation.com/broadcast/68368-Le-Deep-Learning

Les Smart Data dans les banques et assurances

Avec les taux d’intérêt à des niveaux très bas, la sécurisation du PNB (produit net bancaire) et la recherche d’une meilleure rentabilité client sont devenues les priorités des banques et assurances. Les données sont un levier important pour améliorer la connaissance client et accroître l’efficacité opérationnelle. En particulier, l’anticipation de certains événements (sinistres ou moments de vie tels qu’un déménagement, une naissance d’enfant, un départ à la retraite) sont des opportunités essentielles pour proposer de nouveaux services et ainsi développer les cross-selling (Ventes croisées / Offres complémentaires) et up-selling (Montée en gamme). Un autre phénomène intimement lié capte l’attention de nombreuses entreprises du secteur : l’attrition client. Traduisant le comportement d’un client qui quitte sa banque / son assurance, l’attrition est un phénomène complexe présentant des causes très diverses, comme : Des causes sociodémographiques : situation sociale, maritale, p...

Émergence des réseaux intelligents et connectés : vos données sont-elles en sécurité ?

Image
Mouvement majeur au sein de la transition énergétique, le développement des Smart grids et du Big Data se traduit aujourd’hui de manière concrète pour le consommateur par le déploiement de matériel Machine-to-Machine, au travers de compteurs communicants tels que Linky pour l'électricité et Gazpar pour le gaz naturel. Ces smart meters captent et transfèrent un nombre important de données, qui peuvent présenter un caractère personnel. En effet, la granularité fine des données telles que la consommation d'énergie permet parfois – via des statistiques et des algorithmes – d'identifier la situation et les habitudes de vie des consommateurs : horaires, comportements, etc. Si la sensibilité au caractère privé d’une donnée est fortement déterminée par des facteurs politico-sociologiques, elle est aussi dépendante d’une relation de confiance mutuelle entre parties prenantes. Actuellement, il émerge une prise de conscience à l’échelle européenne et française de l’importance de la s...

Smart Data & Electricité : votre segmentation marketing est-elle obsolète ?

Image
La différenciation sur un marché de commodités tel que la fourniture d'électricité ou de gaz est complexe et nécessite une segmentation marketing fine. Or, les segmentations des principaux fournisseurs de gaz et d'électricité sont aujourd’hui comparables, voire identiques, traduisant la difficulté qu'ont ces groupes à se différencier. Cependant, l'arrivée des compteurs communicants tel que Linky, dont le déploiement officiel a démarré le 1er décembre 2015, couplée à la démocratisation et sophistication des techniques d'analyse de données – connue sous l'appellation de data science – pourrait bien changer la donne. Avec ces futures données, transmises presque en flux continu et en temps réel, les fournisseurs pourront faire évoluer leur segmentation et leur ciblage. La question n'est pas uniquement de savoir quelle offre proposer… mais aussi de savoir à qui la proposer. Panorama des macro-segmentations chez les fournisseurs d'électricité Il est d...