Technologie

La technologie et la crise du terrain d'entente – Jez Williams – Medium

La technologie et la crise du terrain d'entente - Jez Williams - Medium


La technologie a accéléré la démocratisation de l’information, mais elle a également contribué à la polarisation politique. Cependant, il peut toujours être capable de sauver le terrain d'entente modéré.

On peut dire que de nombreux facteurs contribuent à la polarisation politique que l'on vit actuellement dans de nombreuses régions du monde. Le Royaume-Uni, l’Espagne, l’Italie, l’Autriche, l’Allemagne, la Hongrie, le Brésil et les États-Unis sont quelques exemples de centres politiques apparemment disparus ces derniers temps. Même la victoire de Macron aux élections françaises marquait un vote historiquement élevé pour l'extrême droite française. On peut citer des événements tels que la crise financière, la crise des migrants ou la crise environnementale pour expliquer le phénomène - et avec raison. Des théories sociales et politiques plus larges sur le renforcement de la partisanerie politique sont également cruciales pour la discussion. Ici, cependant, je veux me concentrer sur le rôle que la technologie a joué, et demander si les entreprises de technologie peuvent (et devraient) tenter de sauver le terrain d'entente.

Illustration de Mantas Tumosa

Avant de continuer, je reconnais que «technologie» est un terme très large et que différents types de technologies peuvent avoir joué divers rôles, voire aucun. J'espère explorer cela plus en détail en examinant quelques grandes tendances technologiques, à la fois en termes de leur contribution au problème et de leur potentiel à faire partie de la solution.

L'influence de la technologie

La technologie a accéléré la démocratisation de l'information. J'entends par là l'acte de rendre l'information accessible à plus de gens. Jamais auparavant dans l'histoire, nous n'avons eu un meilleur accès à l'information, en grande partie grâce aux progrès technologiques. Ce niveau d’accès continuera de croître à mesure que la technologie progresse de façon exponentielle - à la fois en ce qui concerne le type d’informations auquel nous avons accès et en même temps que l’adoption de la technologie atteint les 47% restants du monde, qui ne sont pas des utilisateurs d’Internet. Cependant, l’accès accru à l’information ne peut expliquer à lui seul l’impact polarisant des opinions politiques. Pour cela, nous devons nous demander à quoi ressemble cette information, d’où elle provient et comment elle est utilisée et partagée.

Il y a aussi la question de savoir si cette démocratisation de l'information est vécue également dans différents pays et groupes de la société. Je soutiendrais que l’accès à l’information n’est pas partagé de manière égale et que cela soulève de nouveaux défis découlant du rôle du statut socio-économique en tant que gardien de l’information. Cependant, aux fins de cet article, je supposerai que la tendance à la hausse de l’accès à l’information est plus ou moins globale, même à des rythmes différents dans le monde.

Des médias sociaux

Confiance, préjugés et diffusion de l'information

Les médias sociaux sont sans doute l’un des facteurs les plus importants de l’économie de l’information moderne. Avec une utilisation moyenne des médias sociaux dans le monde entier de près de 2,5 heures par jour, il s’agit d’une source majeure de consommation de contenu (réalité amusante: cela équivaut à une moyenne de 5 ans sur une durée de vie de 4 mois, entièrement sur les médias sociaux). Et ce chiffre augmente d'année en année aussi.

Dans le domaine des médias sociaux, cependant, nous commençons à voir des tendances claires indiquant que nous devrions non seulement prêter attention à la quantité d'informations disponibles, mais aussi - et en particulier - à la qualité de ces informations, d'où elles proviennent, et comment c'est partagé.

Nous choisissons de plus en plus de canaux sociaux pour diffuser des informations et d’autres reportages (nous recevons désormais plus d’informations de cette manière que celles des journaux imprimés). Les médias sociaux résument la forme de communication un-à-plusieurs probablement mieux que n’importe quel autre média de l’histoire, et la facilité avec laquelle nous pouvons partager des informations par exemple, par exemple. Les fonctionnalités «similaires» et «partagées» signifient que le rythme des échanges d’informations a explosé parallèlement à la montée en puissance des sociétés de médias sociaux.

Le résultat est que nous avons accès à un volume très élevé et à un très large éventail d'informations via les réseaux sociaux. Cela signifie que nous avons soi-disant plus de choix, en particulier le choix de l'endroit où nous obtenons ces informations. Je me demanderais dans quelle mesure cela est vrai au départ, car il n’est en aucun cas clair qu’un éventail plus large de sources disponibles signifie nécessairement que nous avons accès à toutes ces sources, voire que nous les connaissons. Cependant, supposons que plus de sources équivaut à plus de choix.

Illustration de Yatish Asthana

Certains diront que plus de choix est une bonne chose et qu'au lieu de provoquer une polarisation des opinions politiques, il s'attaque à ce problème en améliorant la diversité des opinions que vous pourriez voir en ligne.

Par ailleurs, il faut prendre en compte plusieurs facteurs. Le premier d'entre eux est que les humains ont des préjugés intrinsèques et nous ne sommes donc pas bien armés pour faire des choix parfaitement rationnels à partir d'un large éventail d'options. En fait, augmenter le nombre de choix disponibles peut même nous rendre plus exposés à nos biais inhérents.

On trouvera quelques exemples concis de cet effet dans le livre de Thaler et Sunstein intituléCoup de coude". Les résultats d'une série d'expériences menées par Solomon Asch, par exemple, indiquent le pouvoir de la conformité. L'idée est que «les gens sont plus susceptibles de se conformer lorsqu'ils savent que les autres verront ce qu'ils ont à dire." Le désir social de se conformer à un groupe est puissant et, si les gens sont exposés à des points de vue en grande partie non modérés dans un contexte social (tels que les canaux de médias sociaux), la probabilité d'adopter, ou du moins de promouvoir, ces points de vue augmente. Indépendamment du nombre d’autres points de vue qui sont diffusés sur les canaux sociaux.

Lorsque le consensus est soumis à la domination de la conformité, le processus social est pollué et l’individu abandonne en même temps les pouvoirs dont dépend son fonctionnement en tant qu’être sentiment et pensant. (Asch, 1995)

Pour moi, cela corrobore également l'idée selon laquelle les médias sociaux propagent une forme de panoptisme social, selon laquelle les gens adaptent leur comportement en fonction de la possibilité permanente qu'ils soient visibles pour les autres.

Un autre exemple de Coup de coude fait référence aux travaux de Muzafer Sherif sur la conformité et la manipulation. Dans ces expériences, Sherif a implanté un «confédéré» dans le groupe de sujets, dont l’expression d’opinion confiante a eu un impact significatif sur le consensus du groupe. Par exemple, «si l’estimation du confédéré était beaucoup plus élevée que celle initialement faite par d’autres, le jugement du groupe serait gonflé; si l’estimation du confédéré était très basse, celle du groupe tomberait ».

Illustration de Sonya Stupenkova

Quelle est la probabilité que nous voyions régulièrement une expression confiante de pensée modérée sur les canaux de médias sociaux? Ma réponse est que c’est peu probable. En fait, une étude récente menée par Robert Kozinets montre que, grâce à «des algorithmes qui stimulent la participation et attirent l’attention dans les médias sociaux, les aspects de« gamification »tels que les goûts et les actions, provoquant une dépendance, favorisent invariablement l’étrange et l’inhabituel». Pour les besoins de notre propos, toutefois, je remplacerais les mots «étrange et inhabituel» par «extrême et sensationnaliste» pour décrire le type de contenu politiquement chargé qui est plus susceptible d’être partagé en ligne.

Ces exemples de préjugés humains et d’influence sociale entraînent des prises de décisions préjudiciables lorsque nous utilisons les médias sociaux, ce qui nous rend plus enclins à accepter les choses sans rien remettre en question, sans remettre en question la véracité des informations que nous consommons et partageons. Selon une étude, nous sommes moins enclins à vérifier les faits lorsque nous les évaluons en présence d'autres personnes (comme sur les plateformes de médias sociaux) par rapport à ceux que nous évaluons seuls. Ceci est particulièrement répandu lorsque nous considérons un autre type de biais auquel nous sommes intrinsèquement susceptibles, à savoir le «biais de confirmation». Cela signifie essentiellement que nous avons tendance à rechercher, interpréter, favoriser et rappeler des informations de manière à confirmer nos croyances ou hypothèses préexistantes. Lorsque nous combinons ce biais avec un manque de vérification des faits, nous constatons une interprétation plus préjudiciable du contenu en ligne.

La confiance dans les médias et d'autres sources est un autre facteur important à prendre en compte dans notre interrogation sur l'impact des médias sociaux sur nos valeurs politiques. Le passage à l’ère «post-vérité» actuelle fait déjà l’objet de nombreuses discussions et le déclin de l’acceptation des preuves empiriques lors de l’évaluation de la véracité d’une déclaration est un thème commun. Par exemple, Farhad Manjoo a écrit sur l’institutionnalisation des mensonges et l’échec de la documentation principale des événements (par exemple, la technologie numérique nous donnant plus de moyens de capturer et de diffuser des informations) pour aboutir à un meilleur accord culturel sur la vérité. Là encore, on affirme que «nous avons tous tendance à filtrer les preuves documentaires par nos propres biais», ce qui peut diviser l’opinion sur les faits les plus évidents.

Lorsque nous abordons ce thème dans le contexte des médias sociaux, cela soulève la question de savoir si la source d’information est plus importante que l’information elle-même. Lorsqu’on interprète de telles informations, et s’il ya si peu d’accord sur ce qui constitue la «vérité», avons-nous plus de chances de croire les sources que nous connaissons simplement plus familièrement (par exemple, nos propres cercles sociaux) que les médias établis? Si tel est le cas, cela a de profondes implications sur la manière dont ces informations affectent nos valeurs politiques lorsque nous les consommons via les canaux sociaux.

Cette baisse de confiance dans les médias traditionnels s’accompagne d’une montée en popularité du reportage de type clic-appât. Comme le note Alex Shackmuth:

L'ère post-vérité actuelle offre de nombreuses vérités issues d'une multiplicité de nouvelles plates-formes technologiques. Ces plateformes superposent la fonction de divertissement à l’objectif traditionnel d’informer le public; avec des «appâts cliquetants» divertissants attirant un public plus large que les informations soigneusement collectées, les médias se tournent facilement vers les reportages fantastiques et amusants, reproduisant à bien des égards les politiques de la «presse à centimes» dans sa recherche d'une circulation maximale grâce à des histoires «d'intérêt humain» […] (Schackmuth, 2018)

Les effets de ceci ont profondément touché le monde politique. Pour récapituler, lorsque les multiples forces en jeu dans le domaine des médias sociaux (décrites ci-dessus) se combinent, cela a pour effet d'exposer les gens à une quantité écrasante d'informations, ce qui augmente notre propension à les filtrer par biais. Il offre également la possibilité (et l’incitation) de partager facilement des éléments de contenu qui sont plus susceptibles de représenter la vision de masse que l’individu et qui, du fait qu’ils doivent être cliquables et faciles à digérer, sont également plus susceptibles de subvertir la vérité sous-jacente. derrière eux. Cela rend les matériaux extrêmes et sensationnalistes plus susceptibles d'être partagés et exprimés avec plus de confiance, ce qui les motive davantage que les vues modérées lors de l'échange d'informations par le biais de réseaux sociaux. De plus, le biais algorithmique joue un rôle dans la fermeture des boucles du réseau en faisant apparaître certains types de contenu destinés à des utilisateurs individuels. Plus de cela dans la section suivante.

Intelligence artificielle

Prédiction, biais machine et prise de décision assistée par ordinateur

L'intelligence artificielle nous permet de collecter et d'interpréter des données de manière toujours plus puissante. Nous pouvons maintenant traiter les informations à des vitesses incroyablement élevées et dans des volumes extraordinaires. Au-delà de cela, les progrès dans des domaines tels que Deep Learning entraînent une nette amélioration dans la façon dont les machines peuvent interpréter les données et nous relayer des informations de manière intelligente. L'interaction vocale modifie la façon dont nous utilisons ces technologies, ce qui nous permet d'obtenir des informations beaucoup plus rapidement, de manière plus pratique, plus intuitive et plus accessible.

Illustration de Mike DiLuigi

Mais à mesure que l'intelligence artificielle progresse, l'industrie est toujours aux prises avec les implications éthiques de cette technologie, en particulier le défi de la partialité. La qualité des données est un facteur de succès essentiel pour toute IA où la qualité des résultats est encore largement déterminée par la qualité des entrées. Jusqu'à présent, Machine Learning n'a pu produire que des résultats résultant d'une trajectoire de travail algorithmique, trajectoire définie beaucoup plus tôt dans le processus lorsque les données sont entrées en premier lieu. En d’autres termes, cette technologie n’est pas encore Suffisamment intelligent pour reconnaître les biais qu’il utilise, et s’y adapter, mais la même technologie a façonné l’information mondiale et la façon dont elle est consommée.

Il existe de nombreux exemples de cas où le biais s'est manifesté publiquement par le biais de l'intelligence artificielle, par exemple le sexe, le recrutement et les opinions sur le statut socio-économique, ou le parti pris racial pour la reconnaissance de l'image, les prêts hypothécaires et les condamnations pénales. La liste est longue, de nouveaux ajouts apparaissent régulièrement malgré l'attention récente portée à ce problème.

Certaines tentatives pour corriger ce problème reposent de manière intéressante sur la recherche de moyens pour que l'IA reflète plus étroitement le processus décisionnel humain, par exemple en introduisant un élément d'incertitude dans les algorithmes. Cela soulève la question suivante: si nous savons que les êtres humains sont finalement biaisés, dans quelle mesure devrions-nous essayer de faire en sorte que les machines reflètent les êtres humains lorsqu'il s'agit de porter des jugements et de prendre des décisions?

Le défi de la «boîte noire» est un autre aspect du problème de partialité dans l’IA. Essentiellement, ces programmes sont souvent trop complexes pour que nous puissions comprendre exactement comment ils fonctionnent et comment ils produisent les résultats obtenus à partir des données que nous avons entrées. Il y a un manque de transparence, ce qui pose un problème de responsabilité pour ces produits.

Donc, jusqu’à ce que nous développions une intelligence artificielle capable d’exposer les faiblesses de la qualité des données et de se responsabiliser quant à son résultat algorithmique (où le niveau correct d’intervention humaine n’a pas encore été déterminé, comme nous pouvons le faire ou non). ne pas s’appuyer sur cette technologie pour «marquer ses propres devoirs»), les informations produites risquent d’amplifier les biais préexistants.

J'ai dit plus tôt que l'IA n'est pas encore assez intelligent pour reconnaître et s’adapter aux préjugés. Mais cela ne veut pas dire que ne peux pas être assez intelligent. La première étape pour résoudre ce problème consiste à le reconnaître comme un problème. Certaines approches ont déjà été proposées, le prochain défi consiste à les tester dans la pratique. Nous avons commencé à progresser dans ce domaine. Cependant, en ce qui concerne le problème de la polarisation politique, il est un peu trop tard. Ces solutions n’existaient pas depuis la montée en puissance d’intelligence artificielle dans l’interprétation et la transmission d’informations à des êtres humains. Les systèmes construits à l’aide de cette technologie ont donc déjà été exposés aux risques. Encore une fois, les médias sociaux sont un exemple typique où AI a guidé la prise de décision sur le contenu à afficher dans nos fils de nouvelles et le moment de le faire. Ce point nous indique également qu’à l’avenir, nous devrions nous concentrer davantage sur l’éthique de la conception lors de la construction de nouvelles technologies - si l’on avait pris plus en compte les risques potentiels de l’IA, ces effets n’auraient peut-être pas été aussi importants. problématique.

L’exemple de «biais» fait partie de la tendance plus large (et déjà bien établie) de personnalisation. Le contenu personnalisé repose en grande partie sur des données relatives à nos actions et décisions précédentes, ce qui permet d'évaluer avec précision ce que nous connaissons et aimons déjà, mais il est difficile de prédire ce qui pourrait nous intéresser. différent de celui pour lequel nous avons déjà exprimé un intérêt, sans le savoir ou autrement. Si vous cliquez sur un lien menant à un article qui favorise fortement, par exemple, l’élection d’un chef d’État éloigné, les articles recommandés que vous verrez à l’avenir sont plus susceptibles de présenter également cette position politique. Les implications que cela pourrait avoir sur nos opinions politiques sont assez claires: si nous ne sommes exposés qu'à certains types d’informations, et si les points de vue qui les composent sont de plus en plus radicaux, nous risquons d’être influencés au détriment de pensée plus modérée.

D'autre part, ce problème pourrait être minimisé (voire atténué) en appliquant une technologie plus intelligente à un ensemble de données encore plus volumineux. Par exemple, le moteur de recommandations avancées de Netflix teste constamment les données qu’il possède grâce aux nombreuses interactions quotidiennes avec ses plus de 130 millions d’abonnés. Cette expérimentation constante nous a permis d'identifier de nouveaux intérêts potentiels que nous n'aurions peut-être même pas pris en compte avant que cela n'apparaisse sur nos écrans devant nous, avec une indication de correspondance en pourcentage. Bien que cette fonctionnalité de correspondance en pourcentage soit controversée, ma propre expérience est que le moteur de recommandations est assez impressionnant. Ce n'est pas toujours précis, mais parfois cela peut être très précis. C’est une étape importante vers la capacité de nous présenter un contenu personnalisé et pertinent qui ne reflète pas simplement les intérêts que nous avons déjà exprimés.

Le nuage

Puissance de calcul illimitée et stockage illimité

Le nuage a joué un rôle clé en permettant le type de technologie dont nous avons discuté jusqu'à présent. Il fournit une puissance de calcul illimitée et un stockage illimité, et son influence a même entraîné un changement de ce que James Matthews décrit comme «données pilotées par logiciel à logiciel piloté par données». Pour moi, cela est révélateur du rôle de l'information dans la technologie d'aujourd'hui. Ce n'est plus simplement l'entrée / la sortie d'une série d'algorithmes; les algorithmes eux-mêmes sont maintenant conçus et construits autour de lui. Le Cloud est un service essentiel de l'infrastructure technologique qui génère un accès mondial à l'information.

L'accès à l'information est une chose positive. Je ne dirais pas que le nuage lui-même a directement contribué à l'état actuel de polarisation politique, mais il permet les puissantes fonctionnalités de segmentation, de prévision et de recommandation qui peuvent fausser la représentation des informations pour les utilisateurs si elles sont déployées sans conception appropriée. Le nuage doit donc être considéré comme un moyen de permettant changement positif pour ramener la pensée modérée * dans la sphère politique engagée sur le plan technologique, et amplifiant ce changement à travers son application globale. Lorsque nous considérons la technologie comme une solution à la polarisation politique, le Cloud est un composant essentiel.

Illustration de MUTI

Appareils mobiles

Accès à l'information et aux technologies omniprésentes

Les appareils mobiles continuent d’apporter une contribution importante à la manière dont nous accédons aux informations. À compter du printemps 2017, 45% des adultes américains ont souvent des nouvelles sur un appareil mobile, contre 36% en 2016 et 21% en 2013. Chaque jour, 3,3 heures par personne sont consacrées aux appareils mobiles aux États-Unis, contre 0,3 Au Royaume-Uni, le nombre de smartphones est passé de 52% en 2012 à 87% en 2018. Des études ont démontré de manière convaincante que nous avons également tendance à avoir un attachement émotionnel fort à nos téléphones mobiles. Une telle augmentation de l'utilisation et de la pénétration du mobile signifie que nous avons non seulement accès à une vaste mine d'informations, mais aussi presque partout et à n'importe quel moment. Les informations que nous consommons nous sont présentées plusieurs fois par jour, souvent le matin et le soir.

Je décrirais donc les appareils mobiles comme un accélérateur de polarisation politique. Comme le note Schackmuth, «la convergence et la prolifération de ces deux technologies [social media and mobile phones] a créé une plate-forme omniprésente d’interaction sociale et de partage d’informations. ’Les défis posés par la consommation croissante d’informations par le biais des canaux sociaux sont renforcés et multipliés par l’importance des téléphones mobiles dans nos vies.

Un autre facteur qui pourrait indiquer que les appareils mobiles ont un rôle à jouer dans la polarisation politique est l'effet potentiel qu'ils ont sur notre capacité d'attention. Bien que les preuves de cette affirmation ne soient pas concluantes, il est suggéré qu'il pourrait exister une corrélation négative entre l'utilisation du smartphone et notre capacité d'attention. Si tel est le cas, certains soutiendraient que cela pourrait avoir une incidence défavorable sur notre processus de prise de décision et notre volonté de rechercher des problèmes d'actualité avant de pouvoir exprimer notre jugement. Après tout, et comme nous l’avons déjà appris, il est beaucoup plus facile de faire du sensationnel un point de vue radical qu’un point de vue modéré.

Illustration de Sofie Nilsson

Les réactions à l'inquiétude croissante entourant la dépendance aux smartphones ont suscité un éventail intéressant de réponses. Une recherche rapide sur ‘digital detox’ donne lieu à un déluge de ressources et d’articles expliquant comment nous pouvons - et devrait - 'déconnecter pour se reconnecter ’. Depuis la Journée nationale du débranchement jusqu’à la montée en puissance du «téléphone muet», nous avons clairement l’impression que nous dépendons trop de nos appareils. Quels que soient les avantages de telles initiatives, je ne pense pas que l’abandon de nos appareils résoudra le problème de leur impact sur nos perspectives politiques par le biais de la nature de notre consommation d’informations. Ce qu'il faut au contraire, c'est une approche plus intelligente et empathique de leur conception.

Design en technologie

L'intersection entre la technologie et les personnes

J’ai précédemment écrit sur les effets des systèmes d’évaluation à cinq étoiles sur notre comportement et sur l’impact de l’omniprésence de cette fonctionnalité sur la conception de produits et de services technologiques. La discussion qui a suivi cet article m'a incité à inclure quelques mots ici aussi. L'un des fils de la discussion portait sur le fait que les expériences et points de vue radicaux ont tendance à être surreprésentés dans les médias numériques, ce qui peut être attribué en partie au fait que la plupart des gens ne veulent ni raconter ni entendre des histoires selon lesquelles quelque chose était «juste moyen» , et sont beaucoup plus susceptibles de partager une expérience particulièrement bonne ou mauvaise. Le «milieu caché et ennuyeux» n’est jamais vraiment au centre de la scène, mais c’est précisément ces expériences qui, je crois, sont les plus courantes pour beaucoup de gens. Cela contribue à l’idée fausse que les expériences et les perceptions les plus courantes sont les plus extrêmes, les plus radicales - et que toutes les décisions que nous prenons doivent être noires ou blanches, oui ou non, bonnes ou mauvaises. Les nuances de notre prise de décision humaine sont plus facilement perdues dans cet environnement.

Illustration de DOUG Studio

Le résultat de décisions de conception apparemment mineures, telles que celle-ci, est une reprogrammation subtile de notre cadre de référence. Aujourd'hui, la conception technologique est fortement axée sur les besoins des utilisateurs, mais cette approche peut nous faire oublier conséquences pour l'utilisateur - qu'advient-il de l'utilisateur en tant que résultatd'utiliser la technologie que nous concevons. Surtout lorsque nous considérons la conception de produits que nous utilisons aussi régulièrement que les téléphones mobiles et les médias sociaux, il est particulièrement important d'anticiper les conséquences à long terme des petites décisions en matière de conception. Cela peut être difficile, mais nous avons la responsabilité d’anticiper ces impacts qui peuvent nous affecter de manière très personnelle. De nombreux petits coups de pouce vers un extrême politique au fil du temps peuvent avoir un impact majeur sur les valeurs politiques plus larges d’une personne. Et une fois que le milieu modéré commence à disparaître, les restes radicaux ne semblent plus aussi radicaux.

Si vous combinez cette forte influence sur nos perspectives à la manière dont l'information est présentée et partagée sur les médias sociaux et au temps que nous passons à la consommer, optimisée par l'informatique et le stockage illimités rendus possibles par le Cloud et accélérés par l'accessibilité généralisée de ce dernier. informations via les téléphones mobiles, je soutiens que ces technologies ont très probablement contribué à la polarisation croissante des opinions politiques qui s'est révélée lors des récentes élections, référendums et autres formes d'expression politique publique à travers le monde.

On discute ici de la mesure dans laquelle les facteurs dont il est question ici ont contribué à la polarisation politique dans différentes sociétés du monde. Il est parfois facile de tomber dans le piège de supposer que, dans la mesure où la Silicon Valley et des représentations similaires de la culture occidentale ont joué un rôle central dans les progrès de la technologie au cours des dernières décennies, il n’est guère nécessaire de prendre en compte les autres cultures. Mais ce serait une erreur. Même cet article se concentre principalement sur l'influence occidentale. En quoi la situation pourrait-elle être différente en Chine, par exemple? Ou le Nigeria, le Bangladesh, l'Iran? Chaque cas a sa propre considération, et s'il peut y avoir quelques thèmes sous-jacents communs, je m'attendrais à ce que la discussion soit très différente selon les cultures.

L'un des principaux facteurs de différenciation est la manière dont l'information est contrôlée dans différents endroits, et je l'explorerai par la suite.

Le contrôle de l'information

Qui doit contrôler les informations et la manière dont elles sont partagées? Il sera bien entendu répondu à cette question différemment selon l'endroit où vous le posez. Une chose est claire cependant: de par sa nature même, l’information sera toujours contrôlée en quelque sorte . Que ce soit par des personnes ou des machines, par l’Etat ou une entreprise privée, par un individu ou un groupe. En quelque sorte, quelque part sur le chemin, il y a un élément de contrôle. Le défi consiste à déterminer qui devrait en être responsable et quels principes ils devraient suivre.

Au gouvernement

Un problème commun est le manque de compréhension technologique parmi les hauts responsables publics et les gouvernements - les personnes qui sont souvent supposées détenir une forme de contrôle. Seules une bonne compréhension des différents types de technologies peut permettre aux décideurs de prendre des décisions éclairées sur la manière dont les informations devrait être contrôlé, et plus important encore, de le faire sans limiter les nombreux avantages que nous offre la technologie. En ce sens, il faut davantage d’éducation pour ceux qui occupent des postes à responsabilité politique et sociale. Un exemple en est l’initiative de camp d’entraînement technologique mise sur pied par Harvard pour informer les politiciens et les décideurs américains du potentiel et des risques de l’intelligence artificielle. Pour moi, une compréhension suffisante du potentiel avantagesd'une technologie donnée sont tout aussi importants que le des risques sinon, nous risquons de restreindre indûment le pouvoir de la technologie pour nous aider à nous améliorer et à améliorer le monde qui nous entoure - mais le discours public est souvent dominé par la peur des risques potentiels.

Illustration de Parham Marandi

D'un autre côté, tous les gouvernements ne souffrent pas du même déficit de connaissances que celui que le Congrès américain a maintes fois répété tout au long de 2018 dans le cadre de leurs interrogations très médiatisées auprès de dirigeants technologiques tels que Mark Zuckerberg et Sundar Pichai. Au Royaume-Uni, par exemple, des initiatives telles que le nouveau conseil AI (qui conseille le gouvernement sur la promotion et l’adoption de l’IA dans l’industrie, le gouvernement et les universités) et le Center for Data Ethics and Innovation offrent des espaces pour l’éducation, la discussion et la développement responsable de la technologie. Il est essentiel que les décideurs et les politiciens soient informés de l'impact de la technologie et de son rôle futur.

Dans le secteur privé

Le revers de la médaille est l’absence de représentation réglementaire et gouvernementale dans les entreprises de technologie. Les gros joueurs ont toutefois commencé à se réveiller. Par exemple, des nominations remarquables ont été engagées pour recruter des personnes possédant l'expérience politique et les compétences requises pour influencer la manière dont ces entreprises traitent les questions politiques et sociales (entre autres raisons). Bien que certaines personnes aient appelé à la dissolution de Facebook après la comparution de Mark Zuckerberg devant le Congrès au début de 2018, ce ne serait en tout cas qu'une solution à court terme - une réponse plus bénéfique consisterait à prendre des mesures pour que les aligné sur le bien public que le gouvernement est censé défendre. Bien entendu, cela soulève la question «à quoi ressemble une bonne réglementation?» Et c’est une question très complexe à laquelle répondre, encore moins à appliquer dans la pratique. Une bonne façon de procéder serait d’établir une approche plus collaborative entre les entreprises technologiques et les autorités de contrôle qui les contrôlent, et de permettre également au public de mieux comprendre ces discussions.

Illustration de Dante Terzigni Jr.

Il y a des risques évidents à entrer dans la zone grise où les régulateurs travaillent avec ceux qu'ils sont censés réguler. Pour moi cependant, c’est moins une raison de éviter la zone grise, et plus de raison de explorer à la place. Si la bonne gouvernance et le bon cadre peuvent être mis en place, je pense que les entreprises du secteur des technologies (y compris toutes les entreprises susceptibles de relever de ce label, et pas seulement des "grandes technologies") bénéficieraient d'une coopération accrue avec des organismes publics, dont l'incitation ne devrait pas être un profit, mais au lieu du bien public. Il est important de noter que cela vise à améliorer la manière dont les entreprises technologiques gèrent leur responsabilité inhérente envers le public et la planète, plutôt que de leur permettre d'externaliser cette obligation éthique.

Contrôle vs pouvoir

Lorsque vous discutez de la nature du contrôle - et en particulier lorsque ce contrôle concerne des informations -, il est intéressant de considérer également la nature du pouvoir. La technologie joue un rôle intéressant dans l’idée foucaldienne de pouvoir / savoir, dans laquelle les objectifs du pouvoir et ceux du savoir ne peuvent être séparés: savoir que nous contrôlons et que nous contrôlons nous savons. La technologie moderne nous permet d’accroître nos connaissances en les utilisant, mais notre utilisation même donne souvent le pouvoir à ceux qui la contrôlent, dans une mesure encore plus grande. Plus nous en apprenons sur le monde grâce à la technologie, plus les entreprises qui détiennent le pouvoir derrière la technologie connaissent réellement notre existence.

Est-ce une si mauvaise chose? Nous avons constaté de nombreuses avancées dans les produits et services que nous proposons aujourd'hui grâce à ce mécanisme. Et nous pouvons nous attendre à ce que les données, l'IA et l'apprentissage en profondeur jouent également un rôle beaucoup plus important à l'avenir. En termes de ce qui est généralement considéré comme éthiquement acceptable, un facteur clé pour répondre à cette question est de savoir où réside le pouvoir. L’application du GDPR a établi une référence pour les droits individuels sur la propriété des données et l’utilisation des données personnelles. La réglementation telle que celle-ci a pour effet d’empêcher que le pouvoir soit centralisé par le monopole et l’utilisation abusive des données. Je me demande à quoi pourraient ressembler les goûts de Facebook aujourd'hui s'ils avaient grandi dans le respect des règles du GDPR dès le premier jour?

Conclusion

Il incombe à la fois aux gouvernements et aux entreprises privées de relever les défis liés à l’utilisation de la technologie et à son incidence sur nos perspectives politiques. Il est tentant de dire que le public a également la responsabilité de s’éduquer et de s’investir dans ces questions, mais je ne pense tout simplement pas que cela soit tout à fait réaliste. Toute solution à ces problèmes doit prendre en compte à la fois ceux qui sont intéressés et ceux qui ne le sont pas. Cependant, il est toujours logique que toute société avantagefrom better education about the impact of technology today, the role it plays in our lives and — most importantly — the potential benefits and risks of technology in future. In this way, we might be better armed to consume information in the digital realm with greater objectivity and a more open, balanced perspective.

It’s vital that focus remains on the big issues; that the human and social impacts of technology are what drives business and product decision-making. With this focus at the heart of technology design, we should be hopeful about the future role of technology in shaping our political perspectives. It’s an optimistic view — and that’s precisely why it’s necessary.

Show More

SupportIvy

SupportIvy.com : Un lieu pour partager le savoir et mieux comprendre le monde. Meilleure plate-forme de support gratuit pour vous, Documentation &Tutoriels par les experts.

Related Articles

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Close
Close