Les snacks numériques du lundi – chat clientèle, algorithme anti-suicide et réalité augmentée

Article
Par · 21/11/2016

Petite enfilade ludique et/ou décalée de ce qui se passe dans le secteur du numérique.

Cette semaine: le support clientèle face aux modes d’interaction préférés des jeunes générations ; le dépistage d’idées suicidaires par algorithme interposé ; et le côté sombre insoupçonné de la réalité augmentée pour les entreprises.

A déguster en toute décontraction…

 

 

Sommaire

  • Support clientèle: les jeunes générations préfèrent le “chat”
  • L’intelligence artificielle, aide anti-suicide?
  • La réalité augmentée en B2B, boudée pour raisons de sécurité?
Support clientèle: les jeunes générations préfèrent le “chat”

Que ce soit un “chat” via applis de messagerie instantanée ou un “chat” automatisé (les fameux “chatbots”), les jeunes générations semblent donner la préférence à ce mode de dialogue avec les vendeurs et les prestataires de services lorsqu’il s’agit d’obtenir un support technique après-vente.

C’est en tout cas d’ores et déjà le cas en Californie où, sur un échantillon total de 1.000 personnes, 37% des consommateurs âgés de 18 à 34 ans préfèrent le chat au téléphone, voire même au mail.

39% des “millenials” se disent prêts à converser avec un service clientèle par le biais d’applis telles que Facebook Messenger or WhatsApp. La moyenne, tous groupes d’âges confondus, est de 26%… Loin d’être dédaignable.

Plus “décoiffant”: un jeune consommateur sur 10 dit préférer systématiquement une interaction avec un robot (logiciel) plutôt qu’avec un humain lorsqu’il s’agit de contacter un site de vente en-ligne.

Avis donc aux commerçants et surfaces de vente qui veulent se donner un sérieux coup de jeunes et miser sur ce nouveau type de dialogue pour créer des liens de fidélisation avec leurs clients…

 

L’intelligence artificielle, aide anti-suicide?

L’“analyse des sentiments” des utilisateurs et/ou internautes par des algorithmes de plus en plus “perceptifs” est l’une des grandes tendances du moment. Objectif: pousser de plus en plus loin l’automatisation des relations homme-machine, notamment pour des questions budgétaires ou d’absence de compétences spécialisées.

Le “machine learning” (apprentissage automatique) gagne chaque jour du terrain. La revue spécialisée “Suicide and Life-Threatening Behavior” a par exemple publié récemment les résultats d’une étude qui affirme que des solutions d’intelligence artificielle seraient capables, avec un degré de certitude allant jusqu’à 93% de déterminer si une personne a des tendances suicidaires.

Le degré de précision tombe à 85% lorsqu’il s’agit de discerner l’état exact, “temps réel”: personne suicidaire, personne souffrant de maladie mentale mais pas suicidaire, personne saine.

L’algorithme a été développé sur base des résultats de tests de comportements effectués sur 379 patients hospitalisés ou soignés dans 3 hôpitaux de Cincinnati. Les chercheurs ont effectué une corrélation entre le dossier médical de chaque patient et ce que révélait l’analyse du langage verbal et non verbal (sourire, soupirs, colère, douleur émotionnelle…) enregistré lors du test.

C’est sur les caractéristiques de ce langage que se base l’algorithme pour classer un individu dans l’une des trois catégories: suicidaire, malade mental, personne saine et non suicidaire.

Certains professionnels de la santé mentale estiment dès lors que ce genre d’analyse automatisée pourrait être utilisée dans le cadre d’“écoles, de refuges, de clubs de jeunesse, de centres d’assistance juridique pour mineurs, ou de centres communautaires, afin de favoriser une identification précoce qui permettrait de réduire le nombre de tentatives de suicide et de décès.”

 

La réalité augmentée en B2B, boudée pour raisons de sécurité?

Quel lien y a-t-il entre les risques de sécurité et la réalité augmentée? Pensez vie privée et réputation. C’est le message que fait passer l’ISACA, association professionnelle internationale visant à améliorer la gouvernance des systèmes d’information. Suite à une étude menée auprès de quelque 1.651 responsables informatiques européens, l’association estime qu’au-delà de simples considérations financières (en l’occurrence, des doutes sur la rentabilité de solutions de réalité augmentée dans le cadre de leurs activités), ce sont des inquiétudes d’ordre sécuritaire qui freinent l’adoption de la réalité augmentée par le marché professionnel.

87% des personnes interrogées estiment que les consommateurs devraient s’intéresser aux risques que représente la réalité augmentée (AR) pour leur vie privée. Ils sont 86% à émettre la même opinion au sujet de risques posées pour cette vie privée dans le cadre professionnel.

Parmi le panel interrogé, 70% affirment que leur entreprise n’a pas encore défini de règles au sujet de l’utilisation d’applications AR sur le lieu de travail.

Autre “danger”: le détournement sauvage de l’image (lisez: réputation) des entreprises. Selon l’ISACA, “même les entreprises qui n’utilisent pas elles-mêmes l’AR auraient intérêt à effectuer une veille en la matière. En effet, des applis de graffitis virtuels peuvent défigurer des bâtiments, des monuments ou d’autres surfaces par le biais d’images négatives, non autorisées.”

Selon l’étude réalisée, seulement 4% des entreprises ont déjà défini un programme de surveillance de ce genre de phénomène et 20% seraient en mesure de détecter des publications sur les réseaux sociaux ou des photos et vidéos géotaguées correspondant à leurs activités, contenus qui pourraient être utilisés par des applications AR.

(1) On désigne sous l’appellation “graffiti virtuel” des “objets” ou contenus virtuels (messages électroniques, photos, contenus multimédias, annotations, graphiques…) sur-apposés sur des lieux publics, des bâtiments ou des surfaces tels que murs, ponts, façades…