Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

18/09/2019

Kintu de Jennifer Nansubuga Makumbi

 

traduit de l’anglais (Ouganda) par Céline Schwaller

editions-metailie.com-kintu-hd-envoi-mail-300x460.jpg

Métailié éd., 22 août 2019. 480 pages.

 

Ce roman est une fresque étourdissante d’une densité telle qu’il est impossible de le résumer, et d’ailleurs tel n’est pas le but de cette note, mais il faut tout de même pouvoir donner quelques pistes au lecteur. De quoi s’agit-il ? D’une histoire de famille sur plusieurs générations, trois siècles, en Ouganda, donc bien avant que ce pays ne soit arbitrairement nommé ainsi par le colon britannique, en référence à l’ethnie Ganda, occultant ainsi toutes les autres qui peuplaient cette terre.

Kintu est donc une histoire de famille, mais à vrai dire, c’est avant tout l’histoire d’un geste malheureux et de ses conséquences : la répétition transgénérationnelle d’une malédiction. La gifle d’un père, Kintu, à son fil adoptif, Kalema, lors d’une déjà difficile traversée de désert, ayant entraîné accidentellement la mort de ce dernier, qui de plus, fut vite et mal enterré par mégarde à coté d’un arbuste épineux auprès duquel on enterre habituellement les chiens.

Le roman démarre par un prologue, nous sommes en janvier 2004 à Bwayse, un bidonville situé dans une zone marécageuse au pied de Kampala. Kamu Kantu y est assassiné. Kamu Kantu est un descendant de Kintu Kidda, l'ancêtre qui a attiré la malédiction sur sa lignée. Et ce prologue laisse place au premier chapitre qui nous ramène à l’origine donc de cette malédiction : en 1750, dans la Province du Buddu, au Buganda.

Plusieurs générations vont ainsi se succéder, depuis le temps des clans, des royaumes jusqu’au début du XXIe siècle. L’histoire des individus mêlée, emmêlée à l’Histoire d’une terre sur laquelle sont venues, les unes après les autres, se greffer des religions importées et conflictuelles, dont la pas si petite dernière : la très activiste évangéliste. Une terre démembrée par la colonisation, ce qui a entre autre ravivé et compliqué les guerres tribales, et qui essaie d’avancer avec de douloureuses prothèses occidentales comme tout le reste du continent, et tous les flux migratoires consécutifs, la modernisation et la paupérisation qui va avec, les guerres encore, le sida… Y est évoqué bien-sûr la sinistrement célèbre figure d’Idi Amin Dada, mais d’un point de vue ougandais, notamment dans une discussion entre deux amis qui ne sont pas d’accord. La figure était cependant déjà suffisamment et atrocement sanguinaire, sans besoin que les fantasmes occidentaux n’en rajoutent pour en faire une caricature révélatrice de leur propre peur du « noir », tout en faisant oublier ainsi leur responsabilité dans l’instauration de ce dictateur, comme tant d’autres en Afrique.

Kintu est un roman, écrit forcément dans la langue de l’ancien colon britannique, mais c’est vraiment un roman ougandais, sans compromis.

Si la toile de fond se transforme au cours des siècles, Jennifer Nansubuga Makumbi tisse sa trame avec tant de subtilité, l'art de montrer sans dire, que ce n'est pas ce qu’on pourrait appeler une fresque historique. L’Histoire est un grand fleuve, mais ce sont les êtres humains qui sont ici au centre de la fresque, ils sont bien-sûr entraînés par le courant, roulés, malaxés, modelés et parfois brisés par lui, mais, comme des galets, ils sont solides. Ils ont leur propre densité, identité, ils sont tous reliés à une montagne originelle, ancestrale et si la destinée de chacun est à la merci des événements, il existe aussi une forme de prédestination. La force du fleuve ne change rien à la malédiction qui poursuit les descendants de Kintu Kidda, génération après génération, mais cela pourrait tout aussi bien être une bénédiction, ce qui émerge de ce roman, c’est le fil qui nous relie les uns aux autres et qui traverse le temps.

Roman foisonnant, puissant, où l’on se perd facilement mais, comme les personnages, nous sommes entraînés par la force du courant. Une liste et un arbre généalogique en début d’ouvrage peut nous aider à reprendre pied, mais à vrai dire on n’en a pas forcément envie, car très vite, il n’est pas tant question de tout comprendre, mais plutôt de se laisser emporter et peu à peu imprégner de cette langue franche et magnifique avec laquelle Jennifer Nansubuga Makumbi nous raconte sa terre d’origine.

Un premier roman magistral.

Cathy Garcia

 

jennifer-nansubuga-makumbi.jpgJennifer Nansubuga MAKUMBI est née à Kampala. Elle a étudié et enseigné la littérature anglaise en Ouganda, avant de poursuivre ses études en Grande-Bretagne, à Manchester, où elle vit aujourd'hui. Son premier roman, Kintu, lauréat du Kwani Manuscript Project en 2013, sélectionné pour le prix Etisalat en 2014, a reçu un accueil critique et public extraordinaire, aussi bien en Afrique qu'aux États-Unis ou en Grande-Bretagne, qui lui a valu d'être comparée à Chinua Achebe et considérée comme un « classique » instantané. Elle a remporté le Commonwealth Short Story Prize en 2014 et le prix Windham Campbell en 2018. En sélection pour le Prix Médicis étranger 2019.

 

 

 

La « ville sûre » ou la gouvernance par les algorithmes

Source :

https://www.monde-diplomatique.fr/2019/06/TREGUER/59986

 

 

« Résister à la mise sous surveillance totale de nos villes et de nos vies » : c’est l’ambition de la plate-forme Technopolice, lancée par plusieurs associations de défense des droits humains afin de documenter les projets de villes dites « intelligentes ». Pour mieux s’y opposer collectivement. En juin dernier, Félix Tréguer, membre de La Quadrature du Net, décrivait quelques-unes de ces « villes sûres », pointant la « privatisation sans précédent des politiques de sécurité » qu’elles favorisent, et fustigeant le « laisser-faire indolent » de la Commission nationale de l’informatique et des libertés (CNIL).

Surveiller, analyser, prédire, contrôler

La « ville sûre » ou la gouvernance par les algorithmes

Les outils policiers fondés sur le big data et l’intelligence artificielle se déploient dans de nombreuses villes françaises. À travers des expérimentations pilotées par des groupes privés qui cherchent à se hisser au niveau de la concurrence américaine ou chinoise, la « ville intelligente » révèle son vrai visage : celui d’une cité sous surveillance.

JPEG - 261.8 ko
Nathan Lerner. — « Eye on Window » (L’œil à la fenêtre), 1943
© Kiyoko Lerner - ADAGP, Paris, 2019 - Centre Pompidou - RMN-Grand Palais

En ce 28 décembre 1948, dans Le Monde, le logicien Dominique Dubarle publie l’un des tout premiers articles consacrés aux nouveaux calculateurs mis au point aux États-Unis durant la seconde guerre mondiale. D’emblée, il tente d’anticiper les effets politiques de ce qu’on appellera bientôt l’informatique. La cybernétique balbutie, et le capitalisme de surveillance n’est pas encore d’actualité (1), mais il comprend déjà que, à terme, cette technologie est appelée à muter en une « machine à gouverner » : « Ne pourrait-on imaginer, écrit-il, une machine à collecter tel ou tel type d’informations, les informations sur la production et le marché, par exemple, puis à déterminer, en fonction de la psychologie moyenne des hommes et des mesures qu’il est possible de prendre à un instant déterminé, quelles seront les évolutions les plus probables de la situation ? » Dubarle prédit que, au gré de l’accroissement des capacités de stockage et de traitement des données, l’informatique conduira au « surgissement d’un prodigieux Léviathan politique ».

Soixante-dix ans plus tard, les projets de « ville intelligente » (smart city) essaiment dans le monde. Après les États-Unis, la Chine, les pays du Golfe ou le Royaume-Uni, c’est en France que de grands groupes industriels se positionnent sur ces marchés en s’alliant à des élus locaux adeptes du solutionnisme technologique (2). Comme en écho aux prédictions de Dubarle, ils entendent faire proliférer les outils informatiques dans l’espace public urbain pour surveiller, analyser, prédire et contrôler les flux de personnes et de marchandises. Le gouvernement des villes passe ainsi à l’ère de la gouvernance algorithmique. Et, en dehors de quelques initiatives en matière de mise à disposition des données, de gestion « intelligente » de l’éclairage public ou des bennes à ordures, la « ville intelligente » se définit surtout par son volet sécuritaire. À tel point que les industriels parlent désormais de « ville sûre » (safe city).

Les documents administratifs liés à ces projets témoignent de la porosité entre la gouvernance urbaine et les doctrines issues du monde militaire. Ainsi, la convention d’expérimentation conclue en juin 2018 entre la mairie de Nice et un consortium de quinze entreprises dirigé par Thales part du constat d’une « urbanisation galopante à la surface du monde ». Évoquant des « menaces de plus en plus importantes », elle met sur le même plan les « risques naturels », qui peuvent être liés au dérèglement climatique, et les « risques d’origine humaine » (criminalité, terrorisme, etc.). Pas question de s’interroger sur les ressorts économiques, sociaux, politiques de ces phénomènes, et encore moins d’agir sur eux. Il importe avant tout d’« évaluer chaque situation pour pouvoir anticiper les incidents et les crises », d’identifier les « signaux faibles »afin de fournir une « aide à la planification », de proposer des « prédictions sur base de scénarios », le tout dans le cadre d’une « gestion en temps réel » à travers l’exploitation du « maximum de données existantes » au sein d’un « centre d’hypervision et de commandement » (3).

Les « risques » sont ainsi réduits à un état de fait dont la puissance publique se contente de gouverner les effets. Chez les concepteurs de la « ville sûre », la police recouvre sa vieille fonction théorisée au XVIIIe siècle : produire un savoir sur la population, orienter sa conduite en agissant sur les variables qui la déterminent, assurer sa docilité et sa productivité. La nouveauté tient à l’abandon de l’horizon décidément trop fuyant de l’« ordre public ». On se contente désormais de gérer le désordre. Grâce à la surenchère technologique, les technocrates croient pouvoir repérer dans la nuée du chaos certaines caractéristiques ou régularités statistiques à partir desquelles on pourra catégoriser, trier, corréler et, in fine, anticiper, prévenir, préempter, ajuster — mais aussi, quand cela sera nécessaire, cibler et réprimer.

Pour ce faire, la « ville sûre » s’appuie sur deux grandes innovations technologiques. D’abord, la possibilité de réunir et d’analyser divers jeux de données, comme les fichiers de police, les informations personnelles glanées en ligne — et en particulier sur les réseaux sociaux —, etc., afin de produire des statistiques et de l’aide à la décision dans une logique de police prédictive. Les outils de surveillance expérimentés depuis dix ans par les grandes agences de renseignement se généralisent à l’ensemble des activités policières...

À Marseille, le projet d’observatoire big data de la tranquillité publique, confié depuis novembre 2017 à l’entreprise Engie Ineo, vise à intégrer des sources issues des services publics municipaux (police, régie de transport, hôpitaux, etc.), mais aussi des « partenaires externes », tels que le ministère de l’intérieur, qui centralise de nombreux fichiers et données statistiques, ou les opérateurs télécoms, dont les données relatives à la localisation des téléphones portables permettent de cartographier en temps réel les « flux de population ».

Détection des expressions faciales

Par ailleurs, les citoyens seront appelés à contribuer en fournissant directement des informations (textos, vidéos, photographies, vitesse de déplacement, niveau de stress…) à travers « une application sur smartphone ou des objets connectés ». La surveillance des conversations sur les réseaux sociaux comme Twitter ou Facebook est aussi de mise, que ce soit pour « récupérer les publications dont les thèmes ont un intérêt pour la sécurité de la ville », pour « anticiper la menace » et évaluer le « risque de rassemblements dangereux par analyse des tweets », ou encore pour procéder à « l’identification des acteurs » en repérant « qui parle, qui agit, qui interagit avec qui » (4). Pour héberger et traiter ces immenses volumes de données, la ville de Marseille a acquis plusieurs serveurs auprès de l’entreprise Oracle. Elle dispose désormais d’un espace de stockage de six cents téraoctets, soit une capacité équivalant à celle de la Bibliothèque nationale de France pour sa politique d’archivage d’Internet.

Second soubassement technique de la « ville sûre » : l’analyse automatique des flux de vidéosurveillance. Alors que l’État et les collectivités françaises ont investi des centaines de millions d’euros dans l’achat de caméras depuis 2007, et ce pour des résultats dérisoires (5), l’automatisation promet monts et merveilles — et, cerise sur le gâteau, sans embauche de fonctionnaires employés au visionnage. Des projets de vidéosurveillance dite « intelligente » se mettent en place à Toulouse, Nice, Marseille, Valenciennes, Paris, ou encore dans les départements du Gard et des Yvelines.

Le maire de Nice, M. Christian Estrosi, compte parmi les responsables politiques les plus enthousiastes quant au potentiel de ces technologies. En décembre 2018, il faisait adopter par le conseil régional de la région Provence-Alpes-Côte d’Azur (PACA) une délibération autorisant l’expérimentation de portiques de reconnaissance faciale dans deux lycées afin de surveiller les entrées et sorties, en collaboration avec l’entreprise américaine Cisco. Le dernier carnaval de la ville a d’ailleurs servi de laboratoire pour l’expérimentation de dispositifs similaires.

Nice fait également partie de ces municipalités françaises qui entendent coupler la vidéosurveillance à des algorithmes de reconnaissance des émotions. Les édiles ont approché la start-up Two-i pour déployer sa solution dans les tramways de la ville. À Nancy et à Metz, Two-i travaille avec un bailleur social pour évaluer le ressenti des habitants. À Irigny, près de Lyon, la gendarmerie a préféré un concurrent, l’entreprise DC Communication, pour analyser l’« état d’esprit » du public accueilli dans ses locaux. Ces outils issus du « neuromarketing » détectent les expressions faciales associées à la joie, à la tristesse, à la peur ou encore au mépris. « L’algorithme va ensuite tourner pour mesurer ces émotions et faire ressortir la plus présente », explique M. Rémy Millescamps, fondateur de DC Communication et gendarme réserviste.

Si les usages potentiels de la vidéosurveillance « intelligente » ne manquent pas, l’identification automatique d’individus ou de comportements suspects fait figure de priorité. En juin 2018, dans un discours consacré aux doctrines de maintien de l’ordre, l’ancien ministre de l’intérieur Gérard Collomb annonçait des outils d’intelligence artificielle bientôt capables de « repérer dans la foule des individus au comportement bizarre ». Une perspective à nouveau évoquée au Parlement français cet hiver, à l’occasion du débat sur la loi antimanifestation adoptée par le gouvernement en réponse au mouvement des « gilets jaunes ». À travers des amendements finalement rejetés, des députés Les Républicains ont tenté de légaliser le couplage des images de vidéosurveillance avec divers fichiers afin d’automatiser « l’identification des individus dangereux au sein d’une manifestation ». Outre le cas des militants politiques jugés dangereux ou des personnes suspectées d’activités terroristes, la multiplication des fichiers biométriques — notamment ceux liés à l’immigration, ou le fichier des titres électroniques sécurisés (TES), qui, depuis 2016, agrège les données de tous les demandeurs de carte d’identité et de passeport — rend possible une extension rapide de la reconnaissance faciale à des catégories toujours plus larges (6).

Avec le Royaume-Uni, la France fait aujourd’hui figure de leader européen dans l’utilisation de ces technologies de contrôle social. Alors que, en 2016, ses services de renseignement avaient dû acheter les outils d’analyse de données à l’entreprise américaine Palantir, l’émergence de champions nationaux en matière de big data sécuritaire apparaît désormais comme une priorité. Les projets de « ville sûre » permettent aux sociétés de services aux collectivités, à l’instar d’Engie Ineo, ou de la défense-sécurité, comme Thales, de se positionner sur ces nouveaux marchés face à la concurrence américaine ou chinoise, avec les encouragements de l’État, qui demeure le premier actionnaire de chacun de ces deux grands groupes (23,6 % et 25,8 % des parts respectivement, et plus d’un tiers des droits de vote dans les deux cas).

Outre les collectivités commanditaires, de nombreux organismes publics participent à ces évolutions. De ce point de vue, le projet de « ville sûre » mené par Thales à Nice est emblématique. Conçu pour suivre les axes thématiques identifiés par le Comité de la filière industrielle de sécurité — qui assure l’interface entre gouvernement et secteur privé —, il bénéficie d’un label délivré par ce même organisme. Au titre du Programme d’investissements d’avenir, la Banque publique d’investissement (Bpifrance) lui a versé une aide de 11 millions d’euros sous forme de subventions et d’avances récupérables, pour un coût total du projet de 25 millions en trois ans. Enfin, plusieurs des technologies proposées ont été mises au point grâce à des projets de recherche associant des acteurs industriels et des organismes publics, comme l’Institut national de recherche en informatique et en automatique (Inria), à travers des financements de l’Agence nationale de la recherche ou de la Commission européenne.

Sur le terrain aussi, la « ville sûre » engage une privatisation sans précédent des politiques de sécurité. L’expertise technique est tout entière confiée aux acteurs privés, tandis que les paramètres qui président à leurs algorithmes resteront selon toute vraisemblance soumis au secret des affaires. Sur le plan juridique, il n’existe à ce jour aucune analyse sérieuse de la conformité de ces dispositifs avec le droit au respect de la vie privée ou avec la liberté d’expression et de conscience, pourtant directement mis en cause. Pour l’heure, seuls les juristes des entreprises concernées veillent, sans zèle excessif, au respect de la législation en vigueur, révisée en 2018 mais déjà dépassée. Les effets politiques de tels déploiements s’annoncent significatifs : surenchère dans le traitement policier de certains quartiers, aggravation des discriminations que subissent déjà certaines catégories de personnes, répression des mouvements sociaux. Ils ne sont, bien entendu, jamais évoqués par les promoteurs.

Quant à la Commission nationale de l’informatique et des libertés (CNIL), elle s’en tient à un laisser-faire indolent. Abritée derrière son manque de moyens et derrière le fait que le règlement européen sur la protection des données personnelles lui a ôté son pouvoir d’autorisation a priori, elle appelle à un « débat démocratique » afin que « soient définis les encadrements appropriés » (7). Et reconnaît par là l’absence de tout cadre juridique spécifique, ce qui, en vertu de la jurisprudence de la Cour européenne des droits de l’homme, suffit pourtant à démontrer l’illégalité pure et simple de ces projets. Le gouvernement, qui a annoncé une révision de la loi relative au renseignement pour 2020, pourrait quant à lui profiter de ce texte pour blanchir sur le plan législatif les expérimentations en cours, et préparer la généralisation de ces dispositifs de surveillance policière. À moins que des mobilisations citoyennes ne parviennent à les tenir en échec.

Félix Tréguer

Chercheur et membre de La Quadrature du Net.

(1Lire Shoshana Zuboff, « Un capitalisme de surveillance », Le Monde diplomatique,janvier 2019.

(2Cf. Evgeny Morozov, Pour tout résoudre, cliquez ici. L’aberration du solutionnisme technologique, FYP Éditions, Limoges, 2014.

(4« Création d’un outil big data de la tranquillité publique et prestations d’accompagnement (2 lots). Cahier des clauses techniques particulières (CCTP) » (PDF), délégation générale adjointe du numérique et des systèmes d’information de la ville de Marseille.

(5Cf. Laurent Mucchielli, Vous êtes filmés ! Enquête sur le bluff de la vidéosurveillance,Armand Colin, Malakoff, 2018.

(6Lire François Pellegrini et André Vitalis, « L’ère du fichage généralisé », Le Monde diplomatique, avril 2018.