J’ai envie de lancer ce sujet dont des éléments de réponsent ont déjà été abordés dans d’autres débats mais qui me préoccupe pas mal. Comment les technologies liées au big data peuvent-ils changer notre rapport à la démocratie ?
En effet, depuis un peu plus d’une décénnie, pas mal d’informations ont été collectées et le monde de la politique s’est évidemment intèressé à celles-ci.
Ainsi, Barack Obama a mené l’une des première campagne ou des statisticiens ont joué un rôle majeur, et maintenant une série de plate-forme en ligne proposent aux candidats des outils pour mieux gérer leur campagne et cibler leur publique. Le marketing politique n’est pas une idée nouvelle, mais c’est la première fois dans l’histoire que celui-ci peut être appliqué de manière aussi chirurgical.
De plus, en France, l’initiative open data du gouvernement, propose aux élus d’avoir accès à une série d’informations sur leurs administrer afin de pouvoir anticiper leur besoin ou en tout cas les détecter aux plus vite.
A mon sens deux problèmes se posent :
Les campagnes politique vont de moins en moins être porteuse de messages et d’idées nouvelles. L’objectif va être de plaire au plus grand nombre et ce n’est pas en prenant position que l’on fait ça. Une élection a-t-elle dés lors un sens si l’on perd la dimension idéologique qu’on avait l’habitude d’avoir dans celles-ci.
La manière de faire de la politique est donc vouée à changer. Avant on avait un leader qui prenait des décision et voyait ensuite la réaction de la population (en prenant le risque de se casser la gueule). Demain, les politiciens pourront se contenter de suivre l’évolution d’indicateurs. Ils ne seront donc juste que des exécuteurs de volontés citoyennes implicite. Est-ce réellement ce qu’il faut ?
De nombreux autres problèmes liés au big data sont aussi abrodables, même si ils touchent moins directement à la politique. Par exemple, la tendance qu’ont les algorithme qui sélectionnent les produit que l’on veut sur Amazon, les chansons que l’on veut écouter ou les pages que nous allons aimer. Tout cela nous pousse à nous regrouper avec des gens ayant les mêmes opinions que nous et nous éloigne des débats pourtant essentielles pour créer une société démocratique.
En tous cas c’est avec ces outils que notre société va devoir évoluer et composer pour créer le paysage politique de demain. Comment les tourner à notre avantage ? A quoi faire attention ?
je vous met ici une série de site et plateforme qui aident des candidats à gérer leur campagne durant une élection pour que vous puissiez avoir un apperçus de ce qui existe déjà.
Si l’on définit l’idéologie comme une prise de position, alors la démocratie est l’idéologie majoritaire du peuple. Suivant comment vous posez une question, vous pouvez dégager une majorité sur n’importe quel sujet. Le peuple va élire celui ou ceux qui présentent le plus de sujets, chacun d’une façon à dégager une majorité. Mais c’est bien là le fondement de la démocratie, non ? A ce titre le big data est plutôt une optimisation du discours des candidats par rapport aux prises de positions de la population. Ca me semble plutôt un souhait qu’un problème.
Oui, j’en suis absolument convaincu. Les pays qui pratiquent la démocraties semi-directe sont habitués depuis longtemps au principe que vous exposez. En Suisse par exemple, le peuple est le souverain. Le système politique y est conçu pour que le parlement conçoive des lois acceptables par la population. Les élus y sont limités aux prises de positions majoritaires du peuple.
Il ne faut cependant pas sous-estimer le travail législatif d’un parlement. Quelque soit le big data, il est impossible de connaître toutes les prises de positions de la population sur des questions pas encore posées. Or la négociation d’un texte de loi va forcément aboutir à des propositions nouvelles, en particulier dans les détails d’application, pour lesquelles la population n’as pas encore pris position. Le big data va peut-être permettre d’optimiser les négociations en proposant des solutions supplémentaires, mais il faut faire très attention à ne jamais utiliser le big data pour exclure des solutions, car les prédictions du big data, ne remplacerons pas les réflexions pragmatiques de million d’individus. Si un tel outil existerait, il entrerait dans l’hypothèse de la singularité technologique: Singularité technologique — Wikipédia
Le Big Data, transforme effectivement nos sociétés. C’est un outil politique pour aider à la prise de décision. Les indicateurs de pollutions, liés à nos différentes industries polluantes, permettent de mettre en place des nouvelles politiques de développement durable, etc.
Mais il est certain que dans nos paysages politiques notamment en France, les données sont utilisés à titre de manipulation. Combien de fois dans le paysage politique, les politiciens « s’amusent » à tirer des conclusions de données à des fins d’élection (je recommande l’émission DESINTOX qui passe sur ARTE, et qu’on trouve sur Youtube qui parle de ces manipulation de chiffre, voulu ou non d’ailleurs: null - YouTube ).
On ne peut envisager, aujourd’hui, de prise de décision démocratique sans données issues de big data.
Il est certain qu’actuellement, le Big Data en France, sert essentiellement dans nos débats politiques (diffusés dans les médias) à chercher à se faire élire. Les décisions politiques découlant de ces données, étant laissés à l’appréciation de notre gouvernement élus durant les présidentielles et les législatives. Nous nous contenterons de subir leurs décisions ^^
Le problème étant qu’à force d’optimiser on ferme des horizons. Si tous les politiciens commencent à adapter leur discour pour fédérer le plus de personnes possible derrière leur projet on va progressivement perdre les alternatives les plus extrêmes (qui ont quand même le mérite d’ouvrir le débat). Et la un cercle vicieux peut s’installer. Les anciens extrêmes ayant disparus, ceux que l’on qualifiait de « modérés » deviendront des extrêmes et j’ai peur que cela conduise à une fonte massive du paysage politique et a un manque d’alternative. Hors l’alternative aussi est un des fondements de la démocratie.
On est d’accord qu’il est impossible de prévoir l’avis d’une population. Néanmoins, classiquement, le big data est utilisé de deux manières différentes :
Comprendre un phénomène,
Prédire des phénomènes non observés,
Je ne vois pas trop de danger à la première utilisation, je trouve même que c’est quelque chose de merveilleux qui peut nous aider à mieux comprendre l’imbrication de différents problèmes de sociétés.
Le second est à prendre avec des pincettes. Peu de gens pensent qu’une singularité technologique est possible. Mais même sans en avoir, en utilisant les outils actuels, il est toujours possible de mettre une étiquette avec une probabilité pour chaque évènements.
Quand on commence a appliquer cela au niveau d’une société, on se rend souvent compte que c’est justement parce qu’on prédit l’évènement que celui-ci arrive. Par exemple, les données semblent indiquer un climat de tention dans les cités, la mairie décide donc de renforcer la présence policière dans celles-ci et c’est cet acte qui, au final, va faire réellement monté la tension comme prédit.
C’est sur. Johnny Von Neumann disait « donné moi 4 paramètres, je vous dessine un éléphant et avec un 5eme il remuera la trompe ».
On peut faire dire pas mal de choses aux données rien qu’en changeant la manière dont on les présente.
Avant de se reposer dessus il faudrait éduquer la population pour qu’elle puisse identifier les biais qu’on peut mettre dans ce qu’on leur présente.
Votre raisonnement n’est pas sans faille, comment pouvez-vous si facilement exclure que la mise en place d’une situation a été correctement détectée par une prédiction avant qu’elle ne débouche sur la probabilité d’un événement ponctuel. Si vous regarder à posteriori et uniquement depuis l’ensemble des événements avérés, alors oui, cela semble diabolique, mais c’est oublier qu’en probabilité on ne peut réduire une conclusion qu’à un seul résultat possible.
D’autre part, l’action auquel vous attribuer l’augmentation de la tension et décidée par la mairie dans votre explication, ce n’est donc pas le fait d’une machine, par conséquent vous ne pouvez logiquement pas lui attribuer l’action. Avec les mêmes données (qui peuvent être vraie ou pas), la mairie a bien d’autres actions possible, y compris d’attendre une observation concrète pour confirmer la prédiction.
En dehors de tout ça, et plus personnellement, je ressens un profond malaise quand je suis confronté à cette théorie comme quoi c’est la présence policière qui est la cause d’un problème: c’est refuser d’admettre q’un mal plus profond existe au préalable. Les heurts avec la police sont le paroxysme de situations antérieures qui ont dégénérées fautes d’actions appropriées pour les éviter (cette partie s’applique à toutes les parties, y compris dans la police elle-même).
Je ne comprend pas trop ce que vous entendez par la. Justement, lorsque l’on analyse un fait par exemple : sur base d’un électro cardiogramme quel est le risque que le patient fassent une crise cardique on a deux réalités possibles. à 30% il peut faire une crise cardiaque et à 70% il ne peut pas.
Et dans les cas sociaux ce n’est pas si tranché. On a peut être 20 scénarios probables avec très peu de différences dans leur probabilité.
Ca on est tout à fait d’accord. Mais la machine peut, par ses indications, donner de fausses pistes aux personnes qui doivent prendre des décisions. On est d’accord que juridiquement la machine ne peut pas être tenue comme responsable, mais dans les faits c’est elle l’élément déclencheur.[quote=« jcamdr70, post:5, topic:2851 »]
je ressens un profond malaise quand je suis confronté à cette théorie comme quoi c’est la présence policière qui est la cause d’un problème
[/quote]
C’était juste un exemple pour illustrer le propos ^^. Je ne pense pas non plus que ce soit la présence policière qui crée des tensions. Mais elle peut exacerber des tensions existentes.
Précisément dans ce cas il n’est pas possible de prendre une décision. A l’extrême inverse vous pouvez avoir avec une très faible probabilité un événement majeur, en particulier si on le répartit géographiquement et dans le temps, qui rend également très difficile toutes prises de décision impliquant un lieu et une date en particulier. Dans aucun de ces cas la prédiction d’une probabilité n’est la cause de l’événement.
C’est une erreur de raisonnement que vous pouvez tout autant attribuer à un horoscope, à un tarot, une voyante, un poulpe, ou un tirage au sort. La faute n’est pas dans l’erreur de prédiction d’un outil inapproprié, mais bien dans l’humain qui lui fait confiance aveuglément. Est-ce un poulpe qui a déclenché des résultats de match de foot ?
[quote=« jefidev, post:6, topic:2851, full:true »][quote=« jcamdr70, post:5, topic:2851 »]
je ressens un profond malaise quand je suis confronté à cette théorie comme quoi c’est la présence policière qui est la cause d’un problème
[/quote]
C’était juste un exemple pour illustrer le propos ^^. Je ne pense pas non plus que ce soit la présence policière qui crée des tensions. Mais elle peut exacerber des tensions existentes.
[/quote]
Peut-être aussi que les tensions existantes peuvent exacerber la police. C’est tout de même pas compliqué d’avoir un comportement normal en présence de policiers si on a rien à se reprocher.
Et la on touche au noeud du problème. Car les tarots et l’horoscope ça fait un peu consensus. On sait qu’on ne doit pas s’y fier. Tandis que les analyse ammenées par des algorithmes magique sont très rationnalisée et on a tendance à plus vite leur faire confiance.
Je crois qu’il y a un mal entendu, ce n’est pas la prédiction qui produit l’évènement attendu, c’est la prédiction qui met l’évènement qui pourrais ce produire dans nos tête et qui induit un biais dans nos réflexions.
Si on ne sait pas qu’il va y avoir des tensions à un endroit on ne prendra aucune mesure contre elle et 1 fois sur deux ça peut bien se passer. Par contre être consient qu’il risque d’y avoir des tension quelque part et avoir des indicateurs qui nous poussent à le croire peut amener une sur-réaction qui va accentuer l’effet que l’on voulait éviter. Ce n’est pas la prédiction qui est la cause mais c’est la prédiction qui induit ce biais dans nos réflexions.
Remplacez dans votre raisonnement la prédiction de l’algorithme par la prédiction d’un humain, qui soit expert, manipulateur, ou incompétent, et vous arriverez à la même situation. Comme vous l’analysez correctement, le problème réside dans la confiance trop grande attribuée à un avis basé sur des probabilités.
N’oublions pas que le « big data » n’est qu’un terme signifiant que l’ « on » « traite » une quantité arbitrairement grosse de données. C’est avant tout un effet collatéral provoqué par la numérisation d’à peu prêt tout et à la concentration d’un gros nombre de ces données aux mêmes endroits (la gestion des comptes Facebook, d’emails chez Google, et même de factures chez EDF, par exemple).
Ces entités qui gèrent ces données y auront de toute façon accès : Barack Obama pourra toujours mener des campagnes en prenant en compte des indicateurs marketing, ils peuvent venir d’une régie publicitaire, de sondages, etc. qui pratiquent le « big data » ou pas (comme c’est arbitraire comme notion, c’est propre à l’interprétation de chacun).
Là ou l’initiative open data est intéressante, c’est qu’à la place de concentrer l’accès à ces données aux collecteurs uniquement (et à leurs clients), tout le monde peut les utiliser. Bien-sur, ont peut toujours rêver que Facebook ou Google aient le même comportement, mais ceux qui l’adoptent (visiblement le gouvernement, pour toutes les données publiques) sont à saluer car il sera probablement plus difficile de faire dire n’importe quoi à des chiffres analysables par tout ceux qui le souhaite.
De mon côté, je pense que c’est malgré tout plus un problème qu’un souhait. Pourquoi ? Car le bigdata a pour principe d’utiliser les faits les plus simples (il y a tant de meurtres en France, tant de prisons,… ) , et ensuite de faire des corrélations entre elles pour construire des modèles. La plupart du temps, cette détermination des corrélations se fait avec des algorithmes, eux-mêmes créé par des informaticiens.
Premier constat : les corrélations générées sont-elles bonnes ? Je laisse ici un site avec de nombreuses corrélations qui fonctionnent parfaitement mais qui n’ont aucun sens :
Ces corrélations sont donc arbitraires, et ne peuvent avoir de sens que si elles sont appuyées par une théorie (et donc une idéologie.) Croire en son objectivité est un non-sens. Or c’est justement l’aspect qui est mis en avant.
Deuxièmement, le big data peut réduire le débat. Croire que la démocratie, c’est prendre la pensée de chaque citoyen puis optimiser le discours du candidat pour que la majorité vote celui-ci, c’est une grave erreur… C’est laisser à cette majorité croire qu’ils ont raison (et c’est pas forcément le cas), ne pas vouloir des remises en questions : c’est ce qui s’apparente le plus à de la démagogie qu’autre chose. C’est balayer le doute en faisant disparaître le débat. C’est déjà décrit dans un épisode de datagueule :
Vers une démocratie automatique donc ?
De plus, en remarque finale, vu que le big data se base sur des faits passés, l’utiliser revient à faire preuve d’une certaine continuité dans les décisions : on ne peut pas dire qu’un système politique qui existe juste en théorie fonctionne car il n’a jamais existé avant : il est décrit comme utopiste (dans le sens négatif), au contraire de ceux qui suivent cette continuité, dits réalistes.
En conclusion, associer les résultats du big data à la prise de position d’un expert est trompeur. En se basant sur des faits, en se dépersonnalisant elle revête un voile de vérité objective qui n’en est rien. Ces big data doivent être débattu pour pouvoir en voir les aspects positifs : l’open source est sans doute une des solutions.
Votre exemple simpliste n’est pas une preuve générale. Nous vivons actuellement une époque de développement très rapide d’algorithmes bien plus complexes que de simple corrélations. Un petit aperçus que j’ai lu il y quelques temps:
Il ne faut jamais croire en une objectivité. Un algorithme peut fournir une solution nouvelle, auquel cas il faut préalablement la valider avant de l’utiliser. Ceux qui font confiance sans vérification prendrons des décisions risquées, que leurs informations provient d’un algorithme, d’un expert, ou d’un incompétent, n’y change pas grand chose.
En démocratie, vous allez difficilement empêcher une majorité de prendre une décision, que ce soit sur un sujet ou lors d’une élection. Si une minorité s’accapare du pouvoir au nom de la raison, des mouvements d’oppositions critiquerons l’élite qui veux éduquer le peuple. Si vous admettez l’idée démocratique du peuple souverain, il faut accepter l’idée que le peuple peut se tromper, et qu’il peut changer d’avis ensuite. Tout n’est pas prédictible, que ce soit par des humains ou des machines, il faut donc prendre le risque d’une décision pour acquérir une expérience supplémentaire.
Le fonctionnement du cerveau humain est en quasi totalité basé sur les expériences passées, mais cela ne semble pas vous déranger. La capacité du cerveau humain à créer et à analyser un grand nombre de situations nouvelles est faible comparé à ce qui commence à pouvoir se faire avec des machines. Cela ne signifie pas qu’il faut faire une confiance aveugle à la machine car cela reste de la simulation, au même titre que la réflexion humaine s’entache facilement d’erreur de raisonnement.
Vos dernières phrases sont difficiles à analyser objectivement. Vous ne pourrez que difficilement obliger certains acteurs du big data de vous écouter. Je ne vois pas en quoi l’Open Source va changer quoi que ce soit, la plupart des environnements utilisés pour le big data sont de toute façon déjà en Open Source.
Mon propos ne se focalisait pas sur la complexité des algorithmes, mais sur le fait que le résultat qu’ils donnent est orienté idéologiquement, contrairement à quelques croyances assez partagées (par exemple le livre « le Négationnisme économique »). Donc on est d’accord de prendre ces résultats avec des pincettes.
Mon propos est différent, je ne dis pas qu’il faut que la minorité prenne le pouvoir! Je dis juste que si l’on a un discours préformaté pour chacun des citoyens il n’y a pas de débats entre les opinions minoritaires et majoritaires. Le citoyen ne réfléchit alors même plus, accepte moins la remise en cause de ses pensées. Plus de débats, plus de démocratie…
Réduire la vie aux faits passés?: peut-être que tu peux prendre conscience de ces faits, te remettre en cause…
Surtout que mon explication était autre: par le surreprésentation des faits et non des idées (qui ne sont pas forcément basées sur des faits), on en vient à ne plus penser en profondeur mais à réduire les choses par les faits. Moins d’idées, moins de débats.
Personne analyse objectivement, de mon point de vue, donc je trouve ça normal.
Je faisais appel à votre commentaire : [quote=« jcamdr70, post:9, topic:2851 »]
la prédiction de l’algorithme par la prédiction d’un humain, qui soit expert, manipulateur, ou incompétent, et vous arriverez à la même situation.
[/quote]
J’expliquais que la prédiction d’un humain, prendra l’aspect du point de vue et sera plus facilement contestable, au contraire de la prédiction de l’algorithme qui aura l’air plus objective, rendant difficile le débat.
Pour l’open source, vous avez peut-être raison, je ne suis pas assez renseigné sur le sujet open source.
Je partage ici le tweet de DataGueule qui évoque la soirée-débat « Les GAFA, amis de la démocratie ? », co-organisée par « _Tous les Internets, ARTE et le Liberté Living-lab ».