Intelligence artificielle

L'avenir socialement optimal des voitures autonomes – Le démarrage

L'avenir socialement optimal des voitures autonomes - Le démarrage


Photo d'Andrea Cau sur Unsplash

Les Américains passent plus de 70 milliards d'heures par an à parcourir plus de 3,2 billions de milles (Bureau of Transportation Statistics; Johnson, 2019). Des trajets quotidiens aux trajets routiers tout terrain, les voitures sont le mode de transport le plus populaire aux États-Unis et dans le monde. À l'ère numérique, des capacités technologiques accrues ont entraîné des innovations incroyables dans l'expérience automobile; les véhicules électriques modernes ont permis de voyager sans émissions de carbone, et les avertissements de sortie de voie ont réduit le taux de blessures des véhicules uniques, des glissements latéraux et des collisions frontales de 21% (Insurance Institute for Highway Safety, 2017). Mais ce qui sera le plus révolutionnaire, c'est ce qui écarte la personne du processus: les voitures autonomes.

Pour les véhicules, il y a six niveaux d'automatisation: pas d'automatisation (niveau 0) où le conducteur est en contrôle total à l'autonomisation conditionnelle (niveau 3) où le conducteur doit être prêt à prendre le contrôle à tout moment jusqu'à l'autonomisation complète (niveau 5) où le véhicule roule complètement seul (National Highway Traffic Safety Administration). Cet article ne considérera que les quatrième et cinquième niveaux d'autonomisation dans lesquels le conducteur n'est pas tenu de jouer un rôle constant dans le processus de conduite lorsque le véhicule traite ces détails. En d'autres termes, la personne entre dans la voiture et la voiture fait le reste.

L'arrivée de véhicules autonomes (AV) tels que ceux-ci aura d'énormes implications pour la sécurité. Une analyse de la National Highway Traffic Safety Administration (2018) a révélé que 94% des accidents de voiture sont principalement attribuables à une erreur du conducteur, comme une distraction au volant, un manque de sommeil ou des excès de vitesse. Avec des algorithmes qui ne subissent pas le même type de pressions de fatigue et ne peuvent pas s'enivrer ni être distraits par des textes, les voitures autonomes peuvent réduire les accidents de la route jusqu'à 90% et sauver 30 000 vies aux États-Unis seulement et éviter ces histoires tragiques sur un texte qui a provoqué un accident et un décès (LaFrance, 2015). Mais présenter les véhicules utilitaires comme un remède contre les accidents de la route reviendrait à trop vendre ses capacités. Après tout, l'intelligence artificielle qui alimente ces technologies est seulement aussi bonne que les intrants qui lui sont fournis. Par exemple, en utilisant seulement quelques morceaux de ruban noir et blanc, les chercheurs en informatique ont réussi à tromper les algorithmes d'identification des panneaux d'arrêt afin de mal caractériser les panneaux d'arrêt comme d'autres objets tels que les limites de vitesse (Eykholt, 2018). De plus, parfois, il n'y a pas d'erreurs, mais plutôt l'algorithme est placé dans une décision difficile. Considérez une situation dans cinq personnes sont jaywalking et la voiture peut soit frapper les jaywalkers ou dévier sur le trottoir et frapper une autre personne - un problème de chariot moderne. Ces situations, aussi improbables soient-elles, doivent être prises en compte dans le codage. Avec des humains derrière le volant, ce genre de situation n'est jamais soumis à un examen minutieux, car les humains sont considérés comme des acteurs imparfaits qui sont incapables de traiter les informations instantanément. Le fait que ces types puissent maintenant être pris en compte signifie que nous devons coder en dur un aspect abstrait de la moralité qui n'est pas bien défini.

Cependant, comme les conducteurs de voitures autonomes ne sont pas des humains, mais plutôt des algorithmes, qu'en est-il de la responsabilité? Que se passe-t-il lorsque les graffeurs font que les panneaux d'arrêt sont mal interprétés comme des limites de vitesse? Que se passe-t-il lorsque l'algorithme décide de dévier vers un spectateur solitaire pour éviter qu'un couple ne traverse la rue? Pour développer des propositions efficaces pour s'attaquer à ces deux problèmes d'erreur algorithmique et au problème du chariot, une analyse des cadres actuels et potentiels de responsabilité est nécessaire.

Négligence

La négligence est le cadre utilisé par presque tous les litiges actuels sur les accidents de voiture. Elle part essentiellement du principe que le défendeur n'a pas fait preuve d'une prudence raisonnable dans certaines activités (en l'occurrence, la conduite automobile) qui ont causé une sorte de préjudice. Plus techniquement, il y a quelques exigences pour tenir quelqu'un négligeable (Goguen).

  • Devoir de diligence raisonnable: la loi obligeait le défendeur à faire preuve de prudence
  • Violation de l'obligation de diligence raisonnable: le défendeur n'a pas agi en tant que personne raisonnable devrait agir dans cette situation
  • Le défendeur a causé des blessures au demandeur
  • Le demandeur a subi une perte

Cependant, il est impossible d'appliquer ce même cadre de négligence à un véhicule autonome (AV). Si le défendeur ne conduit pas la voiture, il ne pourra jamais vraiment violer l’obligation de diligence car il ne contrôlait même pas la voiture. En tant que tel, ce n'est peut-être pas l'accusé qui devrait être tenu responsable, mais plutôt l'algorithme de conduite autonome, car c'est l'algorithme qui contrôle la voiture.

La responsabilité des produits

Les cas de responsabilité du fait des produits sont des cas dans lesquels le demandeur est lésé par un défaut du produit, ou dans ce cas, une erreur dans l'algorithme de la voiture. Il existe des exigences similaires pour tenir une entreprise responsable dans le cadre de la responsabilité du fait des produits (Legal Information Institute).

  • Le défendeur vend le produit utilisé
  • Le défendeur est un vendeur commercial du produit
  • Article défectueux lors de la vente du produit
  • Le demandeur subit une blessure
  • Le défaut était la cause de la blessure

Ce type de cadre fonctionne bien pour les erreurs algorithmiques car le processus de litige révélerait de telles erreurs; une erreur d'identification erronée du panneau d'arrêt satisferait à l'exigence que l'article était défectueux lors de la vente du produit. De plus, comme le processus de litige et de règlement entraînerait des coûts, ce cadre incite directement les fabricants à créer l'algorithme le plus sûr - plus l'algorithme est sûr, moins les litiges sont coûteux et moins les coûts supplémentaires sont élevés.

Cependant, ce cadre échoue lorsqu'il s'agit de traiter les cas impliquant le problème du chariot, car le problème n'était pas un défaut mais plutôt un problème avec la conception d'origine. Sous-ensemble de la responsabilité du fait des produits, les défauts de conception concernent spécifiquement les défauts qui ont été intégrés au produit. Cependant, pour prouver un défaut de conception, le demandeur doit démontrer que le produit est déraisonnablement dangereux en raison d'un défaut de conception. Mais qu'est-ce qui est déraisonnablement dangereux? Dans le problème du chariot classique - où le chariot se dirige vers cinq personnes et peut être détourné pour en toucher une à la place - est-ce excessivement dangereux pour la personne seule? L'imprécision du libellé confère au juge un pouvoir discrétionnaire, mais le problème du chariot a tourmenté les philosophes pendant des décennies sans réponse rigoureuse, et il ne serait pas logique de demander à un juge de répondre à cette question pour une affaire judiciaire.

Assurance sans faute

Une autre possibilité de traiter la responsabilité est l'assurance sans faute, en vertu de laquelle les assurés ne sont pas tenus responsables de l'accident, quelle que soit la faute de l'accident (US Chamber Institute for Legal Reform, 2018). Pour cela, les États mettent généralement en place une police d'assurance sans faute où chaque compagnie d'assurance indemnise son client pour le coût de ses blessures (Insurance Information Institute, 2018). Cela évite la question de la responsabilité pour le problème du chariot - car il reconnaît qu'il y aura des victimes juste à cause de l'algorithme et ces victimes méritent une compensation - mais évite également la question de la responsabilité pour les erreurs algorithmiques. S'il y avait un problème systématique dans l'algorithme de conduite autonome qui entraînait des décès constants, le fabricant ne serait jamais tenu responsable. Par exemple, s'il y avait une erreur d'identification erronée du panneau d'arrêt qui ne s'est produite que sous de fortes pluies, cette erreur peut ne jamais être découverte en tant que problème. Les fabricants pouvaient enquêter seuls sur le problème après un crash, mais au-delà de la perception des consommateurs, il n'y aurait aucune incitation concrète à construire l'algorithme le plus sûr - contrairement à l'incitation du cadre de responsabilité du fait des produits à éviter les frais de contentieux.

Fonds d'indemnisation des victimes

Les gouvernements pourraient également créer un fonds d'indemnisation des victimes pour assurer la responsabilité. Le National Childhood Vaccine Injury Fund a été créé pour augmenter les vaccinations sans avoir à établir la faute d'une personne blessée (US Chamber Institute for Legal Reform, 2018). Dans le cadre d'un programme similaire, les gouvernements pourraient créer un tel fonds pour promouvoir le bien public avec le paiement des fabricants (peut-être via une taxe sur chaque voiture autonome vendue). Semblable à une assurance sans faute, cela pourrait éviter le problème de responsabilité pour le problème du chariot mais faire de même pour les erreurs algorithmiques; rien n'inciterait les constructeurs automobiles à rendre leurs algorithmes aussi sûrs que possible, car le fonds d'indemnisation couvrirait le coût de tout accident. Cependant, par rapport à une assurance sans faute, un fonds d'indemnisation des victimes serait souhaitable, car ce n'est pas entièrement la faute des acheteurs de la voiture (qui sont effectivement en faute car ils paient l'assurance qui paie leurs frais) mais plutôt la faute de l'algorithme.

Le cadre de responsabilité sociale optimale

Les cadres de responsabilité du fait des produits, d'assurance sans faute et d'indemnisation des victimes ont tous leurs avantages. La responsabilité du fait des produits traite bien les erreurs algorithmiques, mais pas si bien le problème du chariot. D'un autre côté, les cadres de l'assurance sans faute et du fonds d'indemnisation des victimes sont à l'opposé; ils traitent bien le problème du chariot en compensant la responsabilité mais ne garantissent pas que les fabricants créent des algorithmes sans les taux d'erreur algorithmique les plus bas possibles. Compte tenu de l'occurrence potentielle beaucoup plus élevée d'erreurs algorithmiques par rapport aux situations de problème de chariot - le problème de chariot n'a jamais eu lieu dans l'histoire de la conduite conventionnelle - il serait socialement optimal d'adopter un cadre de responsabilité du fait des produits et d'ajouter le cadre du fonds d'indemnisation des victimes pour y faire face. les problèmes du chariot. Cependant, étant donné que la responsabilité pour le problème du chariot serait essentiellement évitée, l'algorithme socialement optimal pour traiter le problème du chariot devrait également être pris en considération. Pour concevoir un tel algorithme, les désirs des parties prenantes (les consommateurs, le gouvernement et les fabricants) doivent être pris en compte.

Les consommateurs

En supposant que l'incorporation d'AV est une chose positive (en raison de la sécurité accrue) et que la société devrait aller dans cette direction, il serait important de s'assurer que la moralité des voitures autonomes est celle avec laquelle les consommateurs peuvent être d'accord; sinon, ces voitures n'auraient pas de marché de demande et ne seraient jamais adoptées car elles ne seraient pas vendues. Cela étant dit, il y a des incohérences morales dans ce que veulent les consommateurs. Dans un document de recherche, Bonnefon, Shariff et Rahwan (2016) ont constaté que les gens considéraient massivement une voiture utilitaire autonome (qui permettrait d'économiser le nombre maximum de personnes en cas d'accident) comme plus morale, mais préféreraient personnellement acheter une voiture qui protège le passager à tout prix, quitte à tuer 10 ou 20 piétons. Le document décrit comment la probabilité d'acheter un véhicule audiovisuel diminue d'environ la moitié lorsqu'il est utilitaire (19 sur 100) par rapport à la protection des passagers (50 sur 100). Dans ce cas, il serait peut-être préférable de créer des voitures qui protègent les passagers pour faciliter l'incorporation omniprésente des véhicules audiovisuels, car il devrait y avoir un nombre relativement minimal de vies perdues en raison de problèmes de chariot par rapport au nombre beaucoup plus élevé de vies sauvées. via la sécurité accrue des algorithmes de conduite autonome.

Gouvernement

Le gouvernement veut avant tout promouvoir le bien-être général (peut-être via l'application d'un certain algorithme ou des subventions pour les fabricants qui utilisent un tel algorithme) mais ont plusieurs axes à considérer: l'opinion publique, l'économie et la sécurité.

En ce qui concerne l’opinion publique, le gouvernement pourrait être intéressé à poursuivre une politique alignée sur les désirs des citoyens - une politique dans laquelle l’algorithme priorise les passagers. D'un autre côté, le gouvernement pourrait s'aligner sur l'opinion publique en instituant les algorithmes dans lesquels le grand public souhaite vivre. Le MIT Media Lab a effectué une analyse spécifique des désirs moraux dans plusieurs cas de problème de chariot dans son article publié dans , l’une des meilleures revues universitaires au monde. Ils ont découvert que les préférences mondiales les plus fortes sont de sauver plus de vies sur moins de vies et des vies plus jeunes sur des vies plus âgées (Awad et al., 2018). Le gouvernement pourrait utiliser ces opinions dans son examen du type d'algorithme à promouvoir. Cela complique encore la situation, car le principe de préférer des vies plus jeunes à des vies plus âgées semble entrer en conflit avec le droit du quatorzième amendement à une protection égale qui stipule que tous les citoyens ont droit à la même protection de leurs droits. Ainsi, le gouvernement voudra peut-être simplement promouvoir un algorithme purement utilitaire qui ne valorise que les vies - ignorant les aspects les plus discriminatoires de ces préférences morales.
En ce qui concerne l'économie, le gouvernement pourrait considérer l'amélioration de l'économie comme une amélioration du bien-être général de la population. Ce faisant, ils souhaiteraient promouvoir le développement et l'innovation des voitures autonomes. Cela pourrait conduire le gouvernement à laxisme sur la réglementation gouvernementale visant à encourager le développement de l'industrie automobile autonome. C'est déjà un problème avec la concurrence économique interétatique; Ron DeSantis, le gouverneur de la Floride, a signé un projet de loi autorisant les véhicules audiovisuels sur les routes sans avoir besoin d'un humain au volant et a encouragé les entreprises audiovisuelles à déménager en Floride pour «apporter des emplois bien rémunérés à l'État tout en faisant [Florida] des routes plus sûres »(Farrington, 2019). Une concurrence économique interpays similaire pourrait se produire, en particulier entre les États-Unis et la Chine. Le marché chinois des AV est estimé être le plus grand marché mondial des AV, en milliards de dollars. Le gouvernement américain serait donc incité à avoir des réglementations laxistes (ou même des subventions pour encourager directement le développement) afin de pouvoir exploiter les marchés nationaux et internationaux, augmentant ainsi la croissance économique américaine. Ainsi, le gouvernement voudrait promouvoir un algorithme qui serait souhaitable pour les consommateurs - celui qui priorise la sécurité des passagers.

En ce qui concerne la sécurité, le gouvernement pourrait vouloir promouvoir un algorithme qui rend les gens aussi sûrs que possible - à savoir, un algorithme utilitaire. Cela correspondrait également au désir du public de vivre dans un monde avec des voitures utilitaires. D'un autre côté, le gouvernement pourrait également essayer de maximiser l'adoption d'AV pour promouvoir la sécurité générale en promouvant un algorithme qui priorise le passager.

Compte tenu de ces trois axes, le gouvernement semble le plus désireux de promouvoir un algorithme qui maximise la sécurité des passagers. Cela serait conforme à l'opinion publique sur le désir individuel de monter dans une voiture donnant la priorité aux passagers. Il favoriserait également le développement économique de l'industrie audiovisuelle et accroîtrait la sécurité générale en augmentant le taux d'adoption des voitures autonomes.

Fabricants

La Business Roundtable, une association des PDG de grandes entreprises américaines, a redéfini l'objectif d'une société cette année en l'étendant au-delà des seuls intérêts des actionnaires. Ils décrivent le but d'une société comme fournir de la valeur aux clients, investir dans les employés, traiter équitablement et éthiquement avec les fournisseurs, soutenir les communautés dans lesquelles une société travaille et générer de la valeur à long terme pour les actionnaires (Business Roundtable). Cependant, en ce qui concerne la décision d'un algorithme pour traiter le problème du chariot, seule la fourniture de valeur aux clients et la génération de valeur à long terme pour les actionnaires sont pertinentes. Investir dans les employés, traiter avec les fournisseurs et soutenir les communautés ne sont pas directement liés au choix de l'algorithme à utiliser.

Ces deux idées de valeur pour le client et de profit pour les actionnaires convergent pour maximiser les bénéfices en mettant l'accent sur ce que veulent les consommateurs; les fabricants devraient donc réfléchir à la manière de maximiser la demande des consommateurs. Les fabricants voudraient créer un algorithme qui priorise la sécurité des passagers pour augmenter la demande pour le véhicule.

L'algorithme du problème du chariot socialement optimal

Compte tenu des intérêts des consommateurs, du gouvernement et des fabricants, l'algorithme socialement optimal semble être celui qui priorise la sécurité des passagers. Cela permettrait de répondre à la plus grande demande des consommateurs pour les voitures autonomes, d'augmenter les profits des constructeurs et d'adopter davantage ces véhicules objectivement plus sûrs, ce qui soutiendrait également l'objectif gouvernemental de promouvoir le bien-être au sens économique et de la sécurité.

Le gouvernement devrait instituer un cadre de responsabilité pour la responsabilité du fait des produits pour les erreurs algorithmiques et un fonds d'indemnisation des victimes pour les problèmes liés aux chariots. De plus, concernant le problème des chariots, le gouvernement devrait promouvoir un algorithme de priorité des passagers via une subvention aux constructeurs qui produisent des voitures utilisant un tel algorithme. Cependant, il ne devrait pas exiger un tel algorithme, car s'il y avait des voitures avec des algorithmes utilitaires populaires auprès des consommateurs, cela augmenterait le nombre de vies sauvées. Le seul avantage des algorithmes de priorisation des passagers est qu'ils seraient plus largement adoptés. Cependant, ces voitures utilitaires tomberaient probablement hors de production car la demande des consommateurs serait beaucoup plus faible.

des reproches

Bien que l'instauration d'un algorithme qui donne la priorité à la sécurité des passagers semble être la plus propice à des routes plus sûres car la probabilité d'une telle situation de problème de chariot est extrêmement faible, il y aura probablement un tollé général à l'idée de promouvoir un algorithme qui valorise intrinsèquement la vie des le passager pendant la vie d'un piéton en tant que véhicule utilitaire est considéré comme plus moral. Bien que ce refoulement public soit une considération importante, il n'y a aucune preuve définitive que, compte tenu du raisonnement derrière une telle décision, il y aurait toujours un refoulement substantiel. Cependant, même en supposant qu'il y ait un recul, les constructeurs sont toujours incités à produire des véhicules privilégiant les passagers en raison de la demande accrue des consommateurs. Peut-être y aurait-il un fort sentiment négatif contre la création de voitures autonomes avec un tel algorithme, mais étant donné le désir nettement plus élevé d'acheter un véhicule protégeant les passagers par rapport à un véhicule utilitaire, cela semble peu probable.

Préoccupations non traitées

Bien que le cadre de responsabilité proposé soit socialement optimal, il n'est pas parfait. Considérez la question de l'IA contradictoire, une technique conçue pour tromper les algorithmes d'intelligence artificielle avec une entrée spécialement conçue. Comme mentionné précédemment dans le contexte des panneaux d'arrêt, les algorithmes d'IA peuvent être dupés avec un minimum d'efforts décents. Keen Security Lab (2019) de la société technologique chinoise Tencent a réussi à tromper le système de pilote automatique Tesla pour changer les voies en trafic venant en sens inverse avec seulement trois autocollants placés au sol pour suggérer que la voie courbait à gauche. Dans de tels cas, la défectuosité du produit n'est pas claire. Est-ce qu'il est considéré comme défectueux parce qu'une différence aussi simple a entraîné un changement monumental ou la responsabilité incombe-t-elle uniquement à la personne malintentionnée qui a conçu l'entrée? De toute évidence, la personne malintentionnée devrait être tenue responsable, mais l'algorithme doit également être amélioré. Ces types de problèmes peuvent être presque impossibles à prévoir, et la meilleure option est peut-être simplement de s’appuyer sur ces problèmes au cas par cas. Le cadre socialement optimal présenté devrait être élargi pour traiter de questions comme celles-ci.

En outre, considérons l'hypothèse de certitude sous-jacente à l'analyse de l'algorithme du problème du chariot. Dans l'analyse de cet article ainsi que dans l'analyse de Bonnefon et al. (2016), la survie et les décès sont considérés comme garantis, contrairement au monde réel où tout est probabiliste. Que faire lorsque la probabilité de sauver le passager n'est pas de 100%? Que se passe-t-il s'il y a 0,01% de chances que le passager d'une voiture soit sauvé si la voiture heurte les piétons (tuant les piétons avec 100% de certitude)? Vraisemblablement, les consommateurs seraient moins réticents à acheter une voiture qui décide de sauver les cinq piétons dans ce cas car ils (le passager) mourraient probablement encore. Des études futures sur l'incertitude et la commercialisation des algorithmes de problème de chariot doivent être menées.

Implications

Ces cadres de responsabilité socialement optimaux et ces algorithmes de problème de chariot ont des implications directes sur les actions futures du gouvernement et des constructeurs concernant les voitures autonomes, mais aussi pour toute l'IA qui doit déterminer les compromis entre la vie et la mort.

L'incorporation croissante de l'IA dans la guerre est un autre domaine qui pourrait grandement bénéficier d'un système similaire. Par exemple, si un algorithme devait mal identifier un civil en tant que soldat et tuer ce civil, ce type d'erreur tomberait sous la responsabilité du produit et le développeur de l'algorithme serait tenu responsable. D'un autre côté, lors de la détermination du compromis entre la réalisation d'un objectif militaire (comme la mort d'un chef terroriste) quand cela pourrait blesser des civils innocents, il pourrait y avoir un fonds d'indemnisation des victimes similaire pour les civils blessés. Les détails spécifiques du fonds ainsi que le compromis entre l'objectif militaire et la vie des civils - ne peuvent pas simplement dévaloriser les civils parce que la réalisation d'un objectif militaire pourrait entraîner un nombre de morts beaucoup plus important qu'un accident de voiture - devrait être déterminé. , mais un cadre similaire est applicable.

Conclusion

Les voitures autonomes sont de plus en plus courantes. Cependant, la question de la responsabilité continue d'affliger clairement l'industrie; comment l'incorporation omniprésente d'un tel véhicule peut-elle être autorisée en l'absence de mécanisme de responsabilisation efficace? D'après l'analyse des cadres actuels de responsabilité en cas d'accident de voiture, un fonds de responsabilité du fait des produits et d'indemnisation des victimes semble être le cadre de responsabilité socialement optimal. Le cadre de responsabilité du fait des produits traiterait bien les problèmes d'erreurs algorithmiques en incitant les fabricants à créer les algorithmes les plus sûrs et à permettre l'amélioration des défauts découverts lors de litiges. Le fonds d'indemnisation des victimes reconnaît l'impossibilité de rendre compte du problème des chariots tout en offrant un soutien aux victimes. De plus, les considérations du consommateur, du gouvernement et du fabricant révèlent que l'algorithme socialement optimal pour le problème du chariot serait celui qui prioriserait le passager. Bien qu'un tel système puisse sembler contraire à l'éthique, il maximiserait l'adoption de voitures autonomes, réduisant ainsi les accidents de la route, car la probabilité qu'une situation de problème de chariot se produise est minuscule.

Les références

Awad, E., Dsouza, S., Kim, R., Schulz, J., Henrich, J., Shariff, A.,… Rahwan, I. (2018). L'expérience de la machine morale. , (7729). https://doi.org/10.1038/s41586-018-0637-6.

Bonnefon, J., Shariff, A., et Rahwan, I. (2016). Le dilemme social des véhicules autonomes. .https://doi.org/10.1126/science.aaf2654.

Bureau des statistiques des transports. (Dakota du Nord.). Véhicules-milles américains. Extrait de https://www.bts.gov/content/us-vehicle-miles.

Table ronde d'affaires. (Dakota du Nord.). Notre engagement. Extrait le 17 décembre 2019 de https://opportunity.businessroundtable.org/ourcommitment/.

Eykholt, K., Evtimov, I., Fernandes, E., Li, B., Rahmati, A., Xiao, C.,… Song, D. (2018). Attaques robustes du monde physique sur la classification visuelle de l'apprentissage en profondeur. . https://doi.org/10.1109/CVPR.2018.00175.

Farrington, B. (2019). La loi de la Floride autorise les voitures autonomes lorsqu'elles sont prêtes. Récupéré de https://apnews.com/c0c1b57dd4c74f7c861cf9622e1cc2f6.

Goguen, D. (s.d.). Accidents de voiture causés par la négligence. Extrait le 9 décembre 2019 de https://www.nolo.com/legal-encyclopedia/car-accidents-caused-by-negligence-29537.html.

Institut d'information sur les assurances. (2018). Contexte: Assurance automobile sans faute. Extrait de https://www.iii.org/article/background-on-no-fault-auto-insurance.

Institut d'assurance pour la sécurité routière. (2017). L'avertissement de sortie de voie, la détection d'angle mort aide les conducteurs à éviter les problèmes. Extrait de https://www.iihs.org/news/detail/stay-within-the-lines-lane-departure-warning-blind-spot-detection-help-drivers-avoid-trouble.

Johnson, T. (2019). Vous pensez que vous êtes plus dans votre voiture? Tu as raison. Les Américains passent 70 milliards d'heures au volant. Récupéré de https://newsroom.aaa.com/2019/02/think-youre-in-your-car-more-youre-right-americans-spend-70-billion-hours-behind-the-wheel/.

LaFrance, A. (2015). Les voitures autonomes pourraient sauver 300 000 vies par décennie en Amérique. Extrait de https://www.theatlantic.com/technology/archive/2015/09/self-driving-cars-could-save-300000-lives-per-decade-in-america/407956/.

Institut d'information juridique. (Dakota du Nord.). Responsabilité des produits. Extrait le 9 décembre 2019 de https://www.law.cornell.edu/wex/products_liability.

Administration nationale de la sécurité routière. (Dakota du Nord.). Véhicules automatisés pour la sécurité. Extrait le 10 décembre 2019 de https://www.nhtsa.gov/technology-innovation/automated-vehicles.

Administration nationale de la sécurité routière. (2018). (Publication DOT HS 812 506). Extrait de https://crashstats.nhtsa.dot.gov/Api/Public/ViewPublication/812506.

Laboratoire de sécurité Tencent Keen. (2019). .

Institut de chambre des États-Unis pour la réforme juridique. (2018). . Washington, DC: Silverman, C., Goldberg, P., Wilson, J., et Goggans, S.

Afficher plus

SupportIvy

SupportIvy.com : Un lieu pour partager le savoir et mieux comprendre le monde. Meilleure plate-forme de support gratuit pour vous, Documentation &Tutoriels par les experts.

Articles similaires

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page
Fermer