Mécaniques artificielles

Date

details

Et si la plasticité d’un système technique dépassait simplement le plaisir de voir des rouages se mettre en mouvement ? En observant ce qu’un système est capable de produire nous pouvons questionner son rôle. Sa production devient parfois une forme visant à interroger des enjeux contemporains, notamment ici le rôle des intelligences artificielles dans les décisions de justice.

La technologie des GANs est une classe d'algorithmes utilisée en intelligence artificielle. Elle a été introduite par Ian Goodfellow en 2014 et permet de créer des modèles génératifs, notamment aujourd’hui des images. Son fonctionnement repose sur deux algorithmes se répondant l’un à l’autre : un Générateur et un Discriminateur. Pour illustrer son fonctionnement (voir Fig.1), prenons l’exemple d’un faussaire et d’un policier. D’un côté le faussaire (le générateur) va tenter de faire circuler 100 billets de banques qu’il aura créés de toute pièce. Le policier – au fait des caractéristiques basiques d’un billet – va les classer selon 2 catégories : ceux qu’il juge authentiques et ceux qu’il identifie comme des contrefaçons. Ces derniers sont par la suite renvoyés au faussaire. Celui-ci a alors connaissance des caractéristiques qui font qu’un billet est accepté ou non. Il peut ainsi améliorer l’aspect de ses billets pour avoir plus de chance d’en faire accepter la prochaine fois qu’il enverra une liasse de billets au policier. À force d’aller-retours, le faussaire parviendra à duper le policier sur l’ensemble des billets qu’il lui présentera. C’est à ce moment que le processus d’optimisation entre le générateur et le discriminateur sera optimisé. Cette technologie est ici à l’œuvre pour produire des images de puces électroniques à partir d’une base de données conséquente.

Fig.1 - schéma de fonctionnement d'un gan

La série Trials & Errors met en abîme le rôle des algorithmes lorsqu’ils permettent d’aider à prendre une décision. D’un outil de détection de tumeurs pour les cancérologues à la suggestion d’une décision pénale en Estonie, Obvious expose l'intelligence artificielle pour questionner son rôle au sein de notre société. Ici, il s’agit d’images de puces, celles là même qu’on retrouve dans un ordinateur qui a la capacité de rendre une décision pénale en Estonie au sein du programme e-Justice.

Ces images sont générées elles-mêmes par un algorithme (GANs) devenant des formes possible de ce à quoi un tribunal miniaturisé mis sur puce pourrait ressembler. Chaque image porte le nom d’un procès ayant eu lieu (qui s’est trouvé sujet à débat), car ayant été mal jugé originellement. Les protagonistes de chacun de ces procès ont vu leurs vies profondément modifiées à la suite d’une décision reposant sur un ensemble de facteurs parfois difficiles à  appréhender autant par un humain que par un programme.

En regardant ces images, il nous est difficile de comprendre ce qui se cache derrière chacune de ces puces, tant dans les formes générées que sur le programme qui se cache derrière. Ce qui nous intéresse finalement, c’est la question de la frontière : comment communiquer avec un autre système qui cherche à nous aider, sans lui déléguer notre discernement. D’une manière globale, il est intéressant d’interroger le rôle que prennent les algorithmes dans nos interactions les uns avec les autres. Quel part sommes-nous prêts à déléguer ?

La démarche d'Obvious entend promouvoir une forme d’évidence (Obvious-ness) dans le rôle informatif que ces systèmes techniques se doivent de communiquer. En déstigmatisant la technologie, s’ouvrent alors des débats fertiles qui permettent d’interroger nos nouvelles pratiques. Cette forme d’intelligence artificielle pose ainsi les bases d’une réflexion autour de ce que ces outils nous permettent d’apprendre sur nous-mêmes. Face à ces “fausses” images, quels sont les éléments qui nous permettent d’identifier sa véracité ? Ce que nous allons identifier comme un circuit électronique, une iridescence liée à un traitement chimique, n’est pour le programme qu’un tas de pixels qu’il reproduit fidèlement sans y placer une quelconque signification. 

Loin de devenir des miroirs du processus cognitif à l’œuvre chez l’humain, ces GANs posent la frontière entre ce qu’un système fait et ce que nous en percevons. Ainsi, dans un de ses articles récents, Goodfellow parvient à modifier uniquement certains pixels, invisibles à l’œil humain, mais rendant l’image caduque aux yeux d’un algorithme.

Au-delà de la question du réalisme de ces photos, c’est son interprétation qui prend son sens aujourd’hui. En créant des images étonnantes, c’est notre capacité, en tant qu’humain, d’interpréter librement ce qu’on y voit, qui fait de cette technologie un outil excitant pour demain. C’est ce qu’Obvious entend promouvoir en proposant cette nouvelle technologie à des concepteurs de jeux vidéos pour créer des environnements dynamiques ou à des designers pour concevoir des univers mêlant images de références et propositions inattendues.

Snapshot

La technologie des GANs est une classe d'algorithmes utilisée en intelligence artificielle. Elle a été introduite par Ian Goodfellow en 2014 et permet de créer des modèles génératifs, notamment aujourd’hui des images. Son fonctionnement repose sur deux algorithmes se répondant l’un à l’autre : un Générateur et un Discriminateur. Pour illustrer son fonctionnement (voir Fig.1), prenons l’exemple d’un faussaire et d’un policier. D’un côté le faussaire (le générateur) va tenter de faire circuler 100 billets de banques qu’il aura créés de toute pièce. Le policier – au fait des caractéristiques basiques d’un billet – va les classer selon 2 catégories : ceux qu’il juge authentiques et ceux qu’il identifie comme des contrefaçons. Ces derniers sont par la suite renvoyés au faussaire. Celui-ci a alors connaissance des caractéristiques qui font qu’un billet est accepté ou non. Il peut ainsi améliorer l’aspect de ses billets pour avoir plus de chance d’en faire accepter la prochaine fois qu’il enverra une liasse de billets au policier. À force d’aller-retours, le faussaire parviendra à duper le policier sur l’ensemble des billets qu’il lui présentera. C’est à ce moment que le processus d’optimisation entre le générateur et le discriminateur sera optimisé. Cette technologie est ici à l’œuvre pour produire des images de puces électroniques à partir d’une base de données conséquente.

Fig.1 - schéma de fonctionnement d'un gan

La série Trials & Errors met en abîme le rôle des algorithmes lorsqu’ils permettent d’aider à prendre une décision. D’un outil de détection de tumeurs pour les cancérologues à la suggestion d’une décision pénale en Estonie, Obvious expose l'intelligence artificielle pour questionner son rôle au sein de notre société. Ici, il s’agit d’images de puces, celles là même qu’on retrouve dans un ordinateur qui a la capacité de rendre une décision pénale en Estonie au sein du programme e-Justice.

Ces images sont générées elles-mêmes par un algorithme (GANs) devenant des formes possible de ce à quoi un tribunal miniaturisé mis sur puce pourrait ressembler. Chaque image porte le nom d’un procès ayant eu lieu (qui s’est trouvé sujet à débat), car ayant été mal jugé originellement. Les protagonistes de chacun de ces procès ont vu leurs vies profondément modifiées à la suite d’une décision reposant sur un ensemble de facteurs parfois difficiles à  appréhender autant par un humain que par un programme.

En regardant ces images, il nous est difficile de comprendre ce qui se cache derrière chacune de ces puces, tant dans les formes générées que sur le programme qui se cache derrière. Ce qui nous intéresse finalement, c’est la question de la frontière : comment communiquer avec un autre système qui cherche à nous aider, sans lui déléguer notre discernement. D’une manière globale, il est intéressant d’interroger le rôle que prennent les algorithmes dans nos interactions les uns avec les autres. Quel part sommes-nous prêts à déléguer ?

La démarche d'Obvious entend promouvoir une forme d’évidence (Obvious-ness) dans le rôle informatif que ces systèmes techniques se doivent de communiquer. En déstigmatisant la technologie, s’ouvrent alors des débats fertiles qui permettent d’interroger nos nouvelles pratiques. Cette forme d’intelligence artificielle pose ainsi les bases d’une réflexion autour de ce que ces outils nous permettent d’apprendre sur nous-mêmes. Face à ces “fausses” images, quels sont les éléments qui nous permettent d’identifier sa véracité ? Ce que nous allons identifier comme un circuit électronique, une iridescence liée à un traitement chimique, n’est pour le programme qu’un tas de pixels qu’il reproduit fidèlement sans y placer une quelconque signification. 

Loin de devenir des miroirs du processus cognitif à l’œuvre chez l’humain, ces GANs posent la frontière entre ce qu’un système fait et ce que nous en percevons. Ainsi, dans un de ses articles récents, Goodfellow parvient à modifier uniquement certains pixels, invisibles à l’œil humain, mais rendant l’image caduque aux yeux d’un algorithme.

Au-delà de la question du réalisme de ces photos, c’est son interprétation qui prend son sens aujourd’hui. En créant des images étonnantes, c’est notre capacité, en tant qu’humain, d’interpréter librement ce qu’on y voit, qui fait de cette technologie un outil excitant pour demain. C’est ce qu’Obvious entend promouvoir en proposant cette nouvelle technologie à des concepteurs de jeux vidéos pour créer des environnements dynamiques ou à des designers pour concevoir des univers mêlant images de références et propositions inattendues.

Snapshot
Mécaniques artificielles

Mécaniques artificielles

Rencontre avec Obvious

Publications

NoEnglish

URR#1

Et si la plasticité d’un système technique dépassait simplement le plaisir de voir des rouages se mettre en mouvement ? En observant ce qu’un système est capable de produire nous pouvons questionner son rôle. Sa production devient parfois une forme visant à interroger des enjeux contemporains, notamment ici le rôle des intelligences artificielles dans les décisions de justice.

La technologie des GANs est une classe d'algorithmes utilisée en intelligence artificielle. Elle a été introduite par Ian Goodfellow en 2014 et permet de créer des modèles génératifs, notamment aujourd’hui des images. Son fonctionnement repose sur deux algorithmes se répondant l’un à l’autre : un Générateur et un Discriminateur. Pour illustrer son fonctionnement (voir Fig.1), prenons l’exemple d’un faussaire et d’un policier. D’un côté le faussaire (le générateur) va tenter de faire circuler 100 billets de banques qu’il aura créés de toute pièce. Le policier – au fait des caractéristiques basiques d’un billet – va les classer selon 2 catégories : ceux qu’il juge authentiques et ceux qu’il identifie comme des contrefaçons. Ces derniers sont par la suite renvoyés au faussaire. Celui-ci a alors connaissance des caractéristiques qui font qu’un billet est accepté ou non. Il peut ainsi améliorer l’aspect de ses billets pour avoir plus de chance d’en faire accepter la prochaine fois qu’il enverra une liasse de billets au policier. À force d’aller-retours, le faussaire parviendra à duper le policier sur l’ensemble des billets qu’il lui présentera. C’est à ce moment que le processus d’optimisation entre le générateur et le discriminateur sera optimisé. Cette technologie est ici à l’œuvre pour produire des images de puces électroniques à partir d’une base de données conséquente.

Fig.1 - schéma de fonctionnement d'un gan

La série Trials & Errors met en abîme le rôle des algorithmes lorsqu’ils permettent d’aider à prendre une décision. D’un outil de détection de tumeurs pour les cancérologues à la suggestion d’une décision pénale en Estonie, Obvious expose l'intelligence artificielle pour questionner son rôle au sein de notre société. Ici, il s’agit d’images de puces, celles là même qu’on retrouve dans un ordinateur qui a la capacité de rendre une décision pénale en Estonie au sein du programme e-Justice.

Ces images sont générées elles-mêmes par un algorithme (GANs) devenant des formes possible de ce à quoi un tribunal miniaturisé mis sur puce pourrait ressembler. Chaque image porte le nom d’un procès ayant eu lieu (qui s’est trouvé sujet à débat), car ayant été mal jugé originellement. Les protagonistes de chacun de ces procès ont vu leurs vies profondément modifiées à la suite d’une décision reposant sur un ensemble de facteurs parfois difficiles à  appréhender autant par un humain que par un programme.

En regardant ces images, il nous est difficile de comprendre ce qui se cache derrière chacune de ces puces, tant dans les formes générées que sur le programme qui se cache derrière. Ce qui nous intéresse finalement, c’est la question de la frontière : comment communiquer avec un autre système qui cherche à nous aider, sans lui déléguer notre discernement. D’une manière globale, il est intéressant d’interroger le rôle que prennent les algorithmes dans nos interactions les uns avec les autres. Quel part sommes-nous prêts à déléguer ?

La démarche d'Obvious entend promouvoir une forme d’évidence (Obvious-ness) dans le rôle informatif que ces systèmes techniques se doivent de communiquer. En déstigmatisant la technologie, s’ouvrent alors des débats fertiles qui permettent d’interroger nos nouvelles pratiques. Cette forme d’intelligence artificielle pose ainsi les bases d’une réflexion autour de ce que ces outils nous permettent d’apprendre sur nous-mêmes. Face à ces “fausses” images, quels sont les éléments qui nous permettent d’identifier sa véracité ? Ce que nous allons identifier comme un circuit électronique, une iridescence liée à un traitement chimique, n’est pour le programme qu’un tas de pixels qu’il reproduit fidèlement sans y placer une quelconque signification. 

Loin de devenir des miroirs du processus cognitif à l’œuvre chez l’humain, ces GANs posent la frontière entre ce qu’un système fait et ce que nous en percevons. Ainsi, dans un de ses articles récents, Goodfellow parvient à modifier uniquement certains pixels, invisibles à l’œil humain, mais rendant l’image caduque aux yeux d’un algorithme.

Au-delà de la question du réalisme de ces photos, c’est son interprétation qui prend son sens aujourd’hui. En créant des images étonnantes, c’est notre capacité, en tant qu’humain, d’interpréter librement ce qu’on y voit, qui fait de cette technologie un outil excitant pour demain. C’est ce qu’Obvious entend promouvoir en proposant cette nouvelle technologie à des concepteurs de jeux vidéos pour créer des environnements dynamiques ou à des designers pour concevoir des univers mêlant images de références et propositions inattendues.

Snapshot
No items found.

Obvious

Obvious est un collectif de 3 artistes (Pierre Fautrel, Gauthier Vernier et Hugo Casselles-Dupré) qui place au centre de sa démarche artistique l’utilisation d’algorithmes, dont les fameux GANs : General Adversarial Networks (ou Réseaux Antagonistes Génératifs en français). Si la question de l’objet technique occupe bien évidemment une place centrale, il est ici question de convoquer son esthétique pour lui faire rencontrer des publics divers, plus touchés par une image que par une publication scientifique. Ainsi, l’œuvre d’art synthétise l’objet technique autant que les valeurs qu’il véhicule.

Client

Year

SCope & deliverables

Our work

La technologie des GANs est une classe d'algorithmes utilisée en intelligence artificielle. Elle a été introduite par Ian Goodfellow en 2014 et permet de créer des modèles génératifs, notamment aujourd’hui des images. Son fonctionnement repose sur deux algorithmes se répondant l’un à l’autre : un Générateur et un Discriminateur. Pour illustrer son fonctionnement (voir Fig.1), prenons l’exemple d’un faussaire et d’un policier. D’un côté le faussaire (le générateur) va tenter de faire circuler 100 billets de banques qu’il aura créés de toute pièce. Le policier – au fait des caractéristiques basiques d’un billet – va les classer selon 2 catégories : ceux qu’il juge authentiques et ceux qu’il identifie comme des contrefaçons. Ces derniers sont par la suite renvoyés au faussaire. Celui-ci a alors connaissance des caractéristiques qui font qu’un billet est accepté ou non. Il peut ainsi améliorer l’aspect de ses billets pour avoir plus de chance d’en faire accepter la prochaine fois qu’il enverra une liasse de billets au policier. À force d’aller-retours, le faussaire parviendra à duper le policier sur l’ensemble des billets qu’il lui présentera. C’est à ce moment que le processus d’optimisation entre le générateur et le discriminateur sera optimisé. Cette technologie est ici à l’œuvre pour produire des images de puces électroniques à partir d’une base de données conséquente.

Fig.1 - schéma de fonctionnement d'un gan

La série Trials & Errors met en abîme le rôle des algorithmes lorsqu’ils permettent d’aider à prendre une décision. D’un outil de détection de tumeurs pour les cancérologues à la suggestion d’une décision pénale en Estonie, Obvious expose l'intelligence artificielle pour questionner son rôle au sein de notre société. Ici, il s’agit d’images de puces, celles là même qu’on retrouve dans un ordinateur qui a la capacité de rendre une décision pénale en Estonie au sein du programme e-Justice.

Ces images sont générées elles-mêmes par un algorithme (GANs) devenant des formes possible de ce à quoi un tribunal miniaturisé mis sur puce pourrait ressembler. Chaque image porte le nom d’un procès ayant eu lieu (qui s’est trouvé sujet à débat), car ayant été mal jugé originellement. Les protagonistes de chacun de ces procès ont vu leurs vies profondément modifiées à la suite d’une décision reposant sur un ensemble de facteurs parfois difficiles à  appréhender autant par un humain que par un programme.

En regardant ces images, il nous est difficile de comprendre ce qui se cache derrière chacune de ces puces, tant dans les formes générées que sur le programme qui se cache derrière. Ce qui nous intéresse finalement, c’est la question de la frontière : comment communiquer avec un autre système qui cherche à nous aider, sans lui déléguer notre discernement. D’une manière globale, il est intéressant d’interroger le rôle que prennent les algorithmes dans nos interactions les uns avec les autres. Quel part sommes-nous prêts à déléguer ?

La démarche d'Obvious entend promouvoir une forme d’évidence (Obvious-ness) dans le rôle informatif que ces systèmes techniques se doivent de communiquer. En déstigmatisant la technologie, s’ouvrent alors des débats fertiles qui permettent d’interroger nos nouvelles pratiques. Cette forme d’intelligence artificielle pose ainsi les bases d’une réflexion autour de ce que ces outils nous permettent d’apprendre sur nous-mêmes. Face à ces “fausses” images, quels sont les éléments qui nous permettent d’identifier sa véracité ? Ce que nous allons identifier comme un circuit électronique, une iridescence liée à un traitement chimique, n’est pour le programme qu’un tas de pixels qu’il reproduit fidèlement sans y placer une quelconque signification. 

Loin de devenir des miroirs du processus cognitif à l’œuvre chez l’humain, ces GANs posent la frontière entre ce qu’un système fait et ce que nous en percevons. Ainsi, dans un de ses articles récents, Goodfellow parvient à modifier uniquement certains pixels, invisibles à l’œil humain, mais rendant l’image caduque aux yeux d’un algorithme.

Au-delà de la question du réalisme de ces photos, c’est son interprétation qui prend son sens aujourd’hui. En créant des images étonnantes, c’est notre capacité, en tant qu’humain, d’interpréter librement ce qu’on y voit, qui fait de cette technologie un outil excitant pour demain. C’est ce qu’Obvious entend promouvoir en proposant cette nouvelle technologie à des concepteurs de jeux vidéos pour créer des environnements dynamiques ou à des designers pour concevoir des univers mêlant images de références et propositions inattendues.

Snapshot
Images incoming
Images incoming