[acc-cca-l] Appel à communication, colloque « Données, corps et sociétés. Entre capitalisme de surveillance, gouvernementalité algorithmique et résistances », Bergame (Italie), du 29 juin au 2 juillet 2026

George, Éric george.eric at uqam.ca
Wed Nov 12 07:36:17 MST 2025


[△EXTERNAL]


Chères et chers collègues,

Nous vous prions de bien vouloir trouver ci-après et ci-joint un appel à communications dans le cadre des 2e Rencontres de l’Association Internationale des Sociologues de Langue Française (AISLF), qui se tiendront à Bergame (Italie) du 29 juin au 2 juillet 2026, le Comité de Recherche 33 (Sociologie de la communication et du numérique) organise un colloque intitulé « Données, corps et sociétés. Entre capitalisme de surveillance, gouvernementalité algorithmique et résistances ».

Nous vous remercions pour votre intérêt et espérons vous y voir nombreux·euses.

N’hésitez pas à faire circuler dans vos réseaux.

Au plaisir de vous lire,

Hélène Bourdeloie, Yann Bruna, Éric George et Zeineb Touati pour le CR 33


Soumission (500 mots espaces compris, hors références). : 15 décembre 2025
Retour sur les soumissions: 23 janvier 2025.





________________________________

Pour vous désabonner de la liste CRICIS-INFOS, envoyez un courriel vide (sans objet ni contenu) à : CRICIS-INFOS-signoff-request at LISTSERV.UQAM.CA<mailto:CRICIS-INFOS-signoff-request at LISTSERV.UQAM.CA>

Activités du CR33 – Sociologie de la communication et du numérique
En partenariat avec le GDR Internet, IA et Société<https://cis.cnrs.fr/presentation-gdr/> (CIS-CNRS)

Rencontres à Bergame<https://rencontres2026.aislf.org/pages/page01.php>, Italie, 29 juin au 2 juillet 2026

Appel à communications
Données, corps et sociétés
Entre capitalisme de surveillance, gouvernementalité algorithmique et résistances…

Depuis une cinquantaine d’années, les travaux sur la surveillance ont été inspirés par la figure foucaldienne du panoptique, mettant l’accent sur les institutions de contrôle et leurs logiques disciplinaires. Aujourd’hui, les recherches décrivent un basculement vers une véritable culture de la surveillance (Lyon, 2017) dans laquelle les pratiques de surveillance ne se limitent plus à l’action de l’État ou à des contextes sécuritaires, mais se diffusent au quotidien, s’insinuant dans les usages numériques, dans les relations interpersonnelles, dans les espaces de travail, dans les gestes que nous effectuons face aux écrans (Aïm, 2020 ; Rouvroy et Berns, 2013 ; Zuboff, 2019), ou encore dans nos façons de faire usage de notre corps et de l’exposer. Parallèlement, la généralisation des dispositifs numériques – téléphones multifonctions (smartphones), plateformes sociales, objets connectés, outils de télésurveillance, « intelligence qualifiée artificielle » (IA), algorithme d’apprentissage… – contribue à reconfigurer les frontières entre sphères privée, publique et professionnelle.

Ces dispositifs, qui facilitent et accélèrent la collecte et le traitement des données, instituent de nouvelles formes de participation et de relations sociales où la visibilité, la traçabilité et le contrôle font partie intégrante d’une « expérience utilisateur·ice » qui engage la « bonne » exposition de soi tout en s’orientant vers la vigilance permanente des activités de l’autre (Cardon, 2015 ; Clarke, 1988). Dès lors, la surveillance ne peut plus être pensée comme un phénomène localisé dans certaines institutions ou dans des logiques sécuritaires. Elle doit également être pensée comme un phénomène ubiquitaire qui s’inscrit dans la texture même de nos sociétés phagocytées par le tout numérique.
La surveillance contemporaine est donc polymorphe en ce qu’elle articule des dispositifs étatiques, marchands et relationnels, et s’inscrit dans les relations sociales ordinaires : dans les couples, les familles, l’école, les collectifs de travail… Elle se matérialise par des gestes quotidiens – consulter les mises à jour d’un statut, vérifier une géolocalisation, prendre une capture d’écran, obtenir la preuve qu’un message a bien été lu – qui engagent une véritable éthique relationnelle (Denis et Kessous, 2012). La surveillance n’est donc plus seulement imposée par des acteurs et actrices extérieur·es, mais elle est co-produite par les pratiques des individus, lesquels deviennent parfois complices ou acteurs et actrices de leur propre traçabilité (Marwick et boyd, 2014 ; Trottier, 2012). De fait, la diffusion des dispositifs de surveillance pose aujourd’hui de nombreuses questions sur des plans aussi bien communicationnels qu’économiques, sociaux, politiques ou juridiques… Ce sont autant d’enjeux que ce colloque souhaite aborder à partir des axes suivants.

Axe 1- Économies et infrastructures de la surveillance

Cet axe s’intéresse aux modèles économiques et aux infrastructures techniques qui structurent la surveillance contemporaine, profondément marquée par l’extraction et la valorisation des données comportementales ici transformées en matière première pour nourrir de nouveaux marchés prédictifs (Zuboff, 2019). Les infrastructures matérielles – réseaux de capteurs, systèmes de géolocalisation, serveurs, infrastructures distantes (clouds) – jouent un rôle déterminant dans la structuration de ce modèle (Ball, Haggerty et Lyon, 2012), tandis que les systèmes d’IA permettent d’automatiser la collecte, la catégorisation et l’interprétation des données, produisant des formes inédites de gouvernementalité algorithmique (Rouvroy et Berns, 2013). À cet effet, les contributions pourront proposer des analyses empiriques de dispositifs concrets (plateformes, applications, objets connectés, intelligences artificielles génératives, etc.), tout comme des réflexions théoriques sur la manière dont l’économie numérique redéfinit le rapport entre contrôle, marché et subjectivité.

Axe 2- Gestes, interfaces, designs et régimes de visibilité

La surveillance ne s’exerce pas uniquement par des dispositifs massifs et centralisés, mais elle s’incarne aussi dans des micro-pratiques quotidiennes, liées aux designs des interfaces numériques (Hartzog, 2018) qui produisent des régimes de visibilité et de contrôle. Ces pratiques incluent des statuts de présence (vu, en ligne, dernière connexion) et d’exposition de soi qui configurent des attentes relationnelles parfois explicites, mais souvent implicites, ainsi qu’en témoignent les captures d’écran utilisées comme preuve, comme archive, ou encore comme historiques de navigation et de conversation qui matérialisent une mémoire numérique (Denis et Kessous, 2012 ; Bruna, 2020). Ces gestes, en apparence triviaux, engagent des relations de pouvoir et participent à la construction de normes sociales autour de la transparence et de la disponibilité, illustrant ce que Mirzoeff (2011) décrit comme une « culture visuelle », où images et traces constituent des instruments de contrôle et d’auto-contrôle. Cet axe invite dès lors à examiner la façon dont les interfaces ou designs des dispositifs configurent des régimes de visibilité et d’opacité, les effets de ces micro-surveillances sur les relations interpersonnelles et sociales, ou encore les façons dont les individus négocient, contournent ou réinterprètent ces pratiques.

Axe 3- Gouverner ou encadrer la surveillance

Les dispositifs de surveillance suscitent de multiples régulations, mais aussi d’incessantes controverses. En Europe par exemple, depuis l’entrée en vigueur du Règlement Général sur la Protection des Données (RGPD), la question de la protection des données personnelles est devenue un enjeu public majeur. Pour autant, les débats autour de la reconnaissance faciale, de l’« intelligence artificielle » ou des capteurs biométriques montrent les tensions entre impératifs sécuritaires, intérêts économiques et protection des libertés publiques (Lyon, 2017), entre la puissance économique des plateformes et la légitimation politique des dispositifs sécuritaires (Hartzog, 2018). Les controverses sont particulièrement vives concernant la reconnaissance faciale, la biométrie, les technologies de vidéosurveillance algorithmique et les projets de notation sociale, etc.
Les contributions attendues ici porteront sur l’encadrement juridique et réglementaire de la surveillance : lois, directives, jurisprudences ou débats entourant leur application concrète... Elles pourront également interroger l’émergence de concepts comme la « privacy by design » ou la recherche d’une gouvernance algorithmique transparente (Pasquale, 2015).

Axe 4- Contestations et mobilisations

Au-delà des aspects juridiques, il peut être là question d’examiner les mobilisations citoyennes et militantes. De nombreux collectifs, comme La Quadrature du Net en France, contestent les projets de vidéosurveillance algorithmique, en invoquant leur caractère disproportionné et leurs risques pour les libertés fondamentales. Les résistances à la surveillance peuvent également prendre des formes très diverses telles que tactiques individuelles (multiplication des profils, brouillage volontaire des données, usage de VPN) ; pratiques militantes (contre-dispositifs, campagnes de sensibilisation, slacktivisme…) ; imaginaires utopiques d’une société sans surveillance (Aïm, 2023). Dans cet axe, les contributions attendues pourront documenter les luttes et controverses autour de la surveillance, analyser les discours médiatiques et politiques qui les accompagnent, ou encore investiguer les tactiques de résistance à la surveillance, leurs formes, contextes d’émergence et limites. Il pourra aussi accueillir des réflexions sur les imaginaires sociaux de la non-surveillance et sur les alternatives possibles à une société fondée sur la traçabilité généralisée.

Axe 5- Surveillances interindividuelles et relations sociales

La surveillance n’est pas seulement descendante ou institutionnelle, mais elle est également ancrée dans les relations sociales ordinaires (Andrejevic, 2007). Qu’il s’agisse de consulter l’historique de navigation de son enfant ou la position géographique d’un.e conjoint.e, ces pratiques de surveillance sont souvent justifiées par des motifs de protection, de confiance ou d’amour, au point d’être parfois considérées comme des marqueurs attentionnels (Bruna, 2022a). Toutefois, elles engendrent également certaines tensions dans les relations familiales, amicales, conjugales ou scolaires, et ne sont pas sans révéler certaines asymétries sociales. Tous les individus, selon leur genre, leur classe, leur âge parmi d’autres critères discriminants, n’ont effectivement pas les mêmes ressources techniques et symboliques pour encadrer ou résister à ces dispositifs, quand d’autres les mobilisent stratégiquement afin d’assurer la reproduction d’un capital culturel (Havard Duclos et Pasquier, 2018 ; Dupin, 2018 ; Bruna, 2022b). Les contributions attendues dans cet axe pourront porter sur les justifications invoquées pour surveiller ; les effets de ces pratiques sur les relations sociales et intimes, ou encore les inégalités sociales que produisent ou renforcent les pratiques de surveillance interindividuelles.

Axe 6- Travail, organisations et management algorithmique

La numérisation du travail transforme en profondeur les pratiques de surveillance. L’essor du télétravail et des plateformes numériques (Uber, Deliveroo, etc.) a conduit à l’intensification du contrôle par des outils numériques, allant du suivi des temps de connexion aux logiciels de time tracking ou de capture d’écran. Les travailleurs précaires font partie des catégories socioprofessionnelles qui subissent le plus ce management algorithmique (Eurofound, 2020 ; EU-OSHA, 2022 ; Mateescu et Nguyen, 2019) et le vivent au quotidien. Or ces évolutions et ces modes de mangement ne sont pas sans soulever de multiples enjeux sur les plans psychosocial (INRS, 2023) et juridique (Ajunwa, 2017). En définitive, on pourra là interroger l’effet du management algorithmique sur les conditions de travail et les collectifs professionnels ; les enjeux juridiques et syndicaux liés à ces pratiques ou les formes de résistance, individuelles et collectives, face à la surveillance numérique.

Axe 7- Mesurer, gouverner et contrôler les corps : santé, apparence, mesure de soi…

Les dispositifs biométriques – empreintes digitales, reconnaissance faciale, analyse de l’iris – se sont multipliés dans les contextes sécuritaires, mais aussi dans les environnements professionnels et éducatifs. Parallèlement, les capteurs corporels (bracelets connectés, montres de suivi, applications de santé) se diffusent massivement dans la vie quotidienne, souvent sous l’argument du bien-être ou de la prévention sanitaire (Pharabod, Nikolski et Granjon, 2013). Ces dispositifs posent plusieurs questions. D’un point de vue juridique, ils concernent des données particulièrement sensibles, qui sont soumises à des exigences spécifiques de protection notamment en Europe dans le cadre du RGPD. D’un point de vue éthique, ils engagent des enjeux liés au consentement, à la proportionnalité et au respect de la dignité humaine (Hartzog, 2018). D’un point de vue politique, enfin, ils ouvrent la voie à des usages coercitifs, comme l’illustrent certains projets de surveillance de masse fondés sur la reconnaissance faciale. Il s’agit ici d’examiner comment la surveillance des corps redéfinit notre rapport à l’intimité, à la santé, à la citoyenneté, au bien-être, à l’identité.... Cet axe accueillera notamment des contributions portant sur l’analyse empirique des dispositifs biométriques et des applications de santé connectée ; les enjeux juridiques et éthiques liés à la collecte et à l’exploitation de données corporelles, ou encore les controverses politiques et sociales suscitées par ces technologies.

Axe 8- De nouvelles formes de surveillance : à quelles fins ?

Il importe enfin de s’interroger sur les raisons qui expliquent toutes les transformations des modes de surveillance dont il est question dans notre appel. N’y aurait-il pas ici émergence d’une nouvelle forme de contrôle social ne reposant plus sur la nécessité d’une surveillance étatique aussi forte que celle qui a par exemple été déployée dans l’ancienne Europe de l’Est de l’autre côté du mur de Berlin, mais sur la formation d’attitudes, de comportements humains relevant de la servitude volontaire grâce aux dispositifs sociotechniques communicationnels ? À moins que le couplage de l’exploitation traditionnelle du travail et plus récente de l’exploitation des existences ne conduise à une subsomption totale des individus pour reprendre l’expression envisagée par Negri (Negri, 2005), qui rendrait in fine inutile toute forme de surveillance…

Modalités de soumission

Ce colloque, qui porte sur les questions de données, corps et société à l’ère du capitalisme de surveillance, de la gouvernementalité algorithmique et des résistances.., invite à interroger les formes de surveillance contemporaine introduites par l’économie des données et « l’intelligence artificielle », leurs effets et contestations à travers les mobilisations ou résistances… L’idée est d’accueillir un large nombre de contributions qui, de près ou de loin, interrogent ces questions pour réunir des chercheurs et chercheuses francophones autour de questionnements qui connaissent une acuité particulière dans le contexte d’une surveillance accrue de nos données, de nos corps et des matérialités qui nous entourent et nous façonnent.

Les propositions des communications ne doivent pas dépasser 500 mots (espaces comprises, hors références), et doivent être soumises en français pour le 15 décembre 2025 au plus tard à :

Hélène Bourdeloie <Helene.Bourdeloie at univ-paris13.fr<mailto:Helene.Bourdeloie at univ-paris13.fr>>,
Yann Bruna <ybruna at parisnanterre.fr<mailto:ybruna at parisnanterre.fr>>,
Éric George <george.eric at uqam.ca<mailto:george.eric at uqam.ca>>,
Zeineb Touati <zeineb.Touati at univ-nantes.fr<mailto:zeineb.Touati at univ-nantes.fr>>

Les réponses aux propositions de communication seront transmises par courriel le 23 janvier 2025.

Format :
Le fichier sera envoyé en formats doc ou odt et intitulé NOM_Prénom_TitreDeLaCommunication_AISLF-CR33_BERGAME_2026

Ce document contiendra les éléments suivants :
NOM, prénom, courriel, affiliations/institutions de rattachement (de chaque auteur/autrice), le titre de la communication, l’axe dans lequel s’inscrit la proposition ainsi que le résumé́ de la communication (500 mots espaces compris, hors références).

Informations diverses
Les rencontres Bergame du CR33 se veulent ouvertes et accueillir de larges communautés de chercheur·e·s qui travaillent sur ces questions.
Plus qu’un colloque « traditionnel », cet événement sera surtout l’occasion de préparer le colloque, du CR 33 dans le cadre du prochain Congrès de l’AISLF qui, portant sur le même thème, se tiendra à l’Université de Paris Saclay (France). Il serait donc possible de proposer à Bergame des travaux préliminaires susceptibles d’approfondissements deux ans plus tard.
Cet événement sera aussi l’occasion de repenser l’organisation du CR33.

Informations pratiques

La ville de Bergame, en Italie, est accessible en train, car ou avion.

A ce stade, il n’est pas prévu que les rencontres se tiennent sous forme hybride.



La participation aux rencontres suppose de s’acquitter des coûts d’adhésion à l’AISLF (il convient d’être membre pour participer aux rencontres ; l’adhésion peut être effectuée avant l’inscription aux rencontres).

Le prix est réduit pour les doctorant·e·s et pour les pays aux bas revenus.

Toutes les informations pratiques seront diffusées sur le site web de l’AISLF d’ici la fin de l’année 2025.
Les rencontres de l’AISLF sont prévues du 29 juin au 2 juillet 2026 mais les jours précis pour la tenue des activités du CR33 (colloque en objet atelier doctoral labellisé REDOC (cf. Infra)) ne sont pas connus à ce stade.

A ce stade, voici une plateforme pour l’hébergement (nous ignorons encore si des tarifs seront négociés) : https://www.visitbergamo.net/

Atelier doctoral

Un atelier doctoral (ouvert à toutes et tous ) sur « Méthodes, éthique et science ouverte pour la recherche sur le numérique » labélisé REDOC sera également organisé par le CR33. Il fera l’objet d’une autre communication.

Références bibliographiques citées

Ajunwa, I. (2017). The quantified worker: Law and technology in the modern workplace. Fordham Law Review, 94(2), 681–723.
Aïm, O. (2020). Les théories de la surveillance. Du panoptique aux surveillance studies. Paris : Armand Colin.
Aïm, O. (2023). « Surveillance et contre-surveillance ». Quaderni, 108, 11-19.
Andrejevic, M. (2007). iSpy: Surveillance and power in the interactive era. Lawrence: University Press of Kansas.
Ball, K., Haggerty, K. D., & Lyon, D. (2012). The Routledge handbook of surveillance studies. Routledge.
Bruna, Y. (2022a). « Usages et enjeux de la géolocalisation : un instrument parental de régulation et de surveillance ». tic&société, 15(2–3). https://doi.org/10.4000/ticetsociete.6532
Bruna, Y. (2022b), Géolocalisation des pairs à l’adolescence et enjeux relationnels. Les usages sociaux de la SnapMap, Questions de communication, n°42, 291-312, https://doi.org/10.4000/questionsdecommunication.30445
Bruna, Y. (2020). Snapchat à l’adolescence Entre adhésion et résistances. Réseaux, n°222 (4), 139-164. https://doi.org/10.3917/res.222.0139.
Cardon, D. (2015). À quoi rêvent les algorithmes ?, Paris : Seuil.
Clarke, R. (1988). « Information technology and dataveillance ». Communications of the ACM, 31(5), 498–512.https://doi.org/10.1145/42411.42413
Denis, J., & Kessous, E. (2012). « Le travail ordinaire de la sécurité ». Réseaux, 171, 9–41. doi.org/10.3917/res.171.0009<https://doi.org/10.3917/res.171.0009>.
Dupin, N. (2018), « Attends, deux secondes, je lui réponds… » : enjeux et négociations au sein des familles autour des usages socionumériques adolescents. Enfances Familles Générations, 31. https://doi.org/10.7202/1061778ar.
Eurofound (2020). Regulating platform work: Working conditions and social protection. Dublin: European Foundation for the Improvement of Living and Working Conditions.
EU-OSHA (2022). Artificial intelligence and workers’ safety and health. European Agency for Safety and Health at Work.
Hartzog, W. (2018). Privacy’s blueprint: The battle to control the design of new technologies. Harvard University Press.
Havard Duclos B., Pasquier D., 2018, « Faire famille avec Internet : Une enquête auprès de mères de milieux populaires », Enfances Familles Générations, 31, en ligne : https://doi.org/10.7202/1061779ar.
INRS (2023). « Surveillance numérique : tendances et conséquences en matière de santé et sécurité au travail ». Hygiène & sécurité du travail, 273.
Lyon, D. (2017). « Surveillance culture: Engagement, exposure, and ethics in digital Modernity ». International Journal of Communication, 11, 824–842. https://ijoc.org/index.php/ijoc/article/view/5527<https://ijoc.org/index.php/ijoc/article/view/5527>
Marwick, A., & boyd, d. (2014). « Networked privacy: How teenagers negotiate context in social media ». New Media & Society, 16(7), 1051–1067. https://doi.org/10.1177/1461444814543995<https://doi.org/10.1177/1461444814543995> (Original work published 2014)
Mateescu, A., & Nguyen, A. (2019). Algorithmic management in the workplace. Data & Society Research Institute.
Mirzoeff, N. (2011). The right to look: A counterhistory of visuality. Duke University Press.
Negri, T. (2005). « Questions à Toni Negri », Le Philosophoire, propos recueillis par N. Poirier et M.
Pasquale, F. (2015). The Black Box Society: The Secret Algorithms That Control Money and Information. Harvard University Press. http://www.jstor.org/stable/j.ctt13x0hch
Pharabod, A.-S., Nikolski, V., & Granjon, F. (2013). La mise en chiffres de soi Une approche compréhensive des mesures personnelles. Réseaux, 177(1), 97-129. https://doi.org/10.3917/res.177.0097.
Rouvroy, A., & Berns, T. (2013). Gouvernementalité algorithmique et perspectives d’émancipation Le disparate comme condition d'individuation par la relation ? Réseaux, 177(1), 163-196. https://doi.org/10.3917/res.177.0163<https://doi.org/10.3917/res.177.0163>.
Trottier, D. (2012). « Interpersonal surveillance on social media ». Canadian Journal of Communication, 37(2), 319–332.https://doi.org/10.22230/cjc.2012v37n2a2536
Zuboff, S. (2019). The age of surveillance capitalism. New York: PublicAffairs.


-------------- next part --------------
An HTML attachment was scrubbed...
URL: <https://mailman.ucalgary.ca/pipermail/acc-cca-l/attachments/20251112/6c8beaf4/attachment.html>
-------------- next part --------------
A non-text attachment was scrubbed...
Name: AAC_Bergame2026_CR33_AISLF_Donnees, corps et socie?te?s12NOV25.pdf
Type: application/pdf
Size: 350212 bytes
Desc: AAC_Bergame2026_CR33_AISLF_Donnees, corps et socie?te?s12NOV25.pdf
URL: <https://mailman.ucalgary.ca/pipermail/acc-cca-l/attachments/20251112/6c8beaf4/attachment.pdf>


More information about the acc-cca-L mailing list