- cross-posted to:
- [email protected]
- cross-posted to:
- [email protected]
Imaginez que vous vous asseyez avec un modèle d’IA pour un entretien oral de deux heures. Une voix amicale vous guide tout au long d’une conversation qui porte sur votre enfance, vos souvenirs de formation, votre carrière et vos idées sur la politique d’immigration. Peu de temps après, une réplique virtuelle de vous est capable d’incarner vos valeurs et vos préférences avec une précision étonnante.
C’est désormais possible, selon un nouvel article d’une équipe comprenant des chercheurs de Stanford et de Google DeepMind, qui a été publié sur arXiv et n’a pas encore fait l’objet d’un examen par les pairs.
Dirigée par Joon Sung Park, doctorant en informatique à Stanford, l’équipe a recruté 1 000 personnes de différents âges, sexes, races, régions, niveaux d’éducation et idéologies politiques. Ces personnes ont été payées jusqu’à 100 dollars pour leur participation. À partir des entretiens menés avec ces personnes, l’équipe a créé des agents reproduisant ces individus. Pour déterminer dans quelle mesure les agents imitaient leurs homologues humains, les participants ont effectué une série de tests de personnalité, d’enquêtes sociales et de jeux de logique, deux fois chacun, à deux semaines d’intervalle ; puis les agents ont effectué les mêmes exercices. Les résultats ont été similaires à 85 %.
Such simulation agents are slightly different from the agents that are dominating the work of leading AI companies today. Called tool-based agents, those are models built to do things for you, not converse with you.
Mais ca n’a rien a voir ?!? Les tool-based agents c’est autre chose.
C’est du bullshit journalistique, les buts des chercheurs n’as jamais été de “repliquer la personalité”.
Je cite le papier:We present a novel agent architecture that simulates the attitudes and behaviors of 1,052 real individuals
The generative agents replicate participants’ responses on the General Social Survey 85% as accurately as participants replicate their own answers two weeks later, and perform comparably in predicting personality traits and outcomes in experimental replications.85% c’est extrement mauvais, surtout pour une tache de mémorisation ici.
Le but des chercheurs c’est de faire un simulateur médiocre d’humain pour tester des mesures politiques et mesurer l’impact. On est a des années lumière de vouloir dupliquer une personalitéOn est a des années lumière de vouloir dupliquer une personalité
Y’a déjà un marché attaqué pour ça avec les morts.
Le but des chercheurs c’est de faire un simulateur médiocre d’humain
On est loin du médiocre mais c’est leur but oui
tester des mesures politiques et mesurer l’impact
https://arxiv.org/abs/2410.20746
Pas encore eu le temps de lire plus que le résumé, je m’y attelle ce soir.
L’article va plus loin, je vous laisse le lire / traduire.
Mais c’est le début de la flip quand même.
Perso je trouve ça super intéressant pour des applications en démocratie participative: si t’as un agent qui connaît bien tes préférences, ça devient possible de fournir un vote pour tous les textes débattus à l’assemblée voire de t’alerter quand quelque chose peut t’intéresser particulièrement.
Il faut bien sur que le modèle t’appartienne et ne dépende pas du bon vouloir d’une boite américaine, mais en modèle local, avoir un agent-lobbyiste qui participe au débat démocratique, ça me gêne pas, ça serait un gros progrès je trouve.
je suis pas optimiste.
Si c’est possible ça sera d’abord utilisé pour le lobbying par des grosses boites, et je trouve qu’associes a des avatars deepfakes, ça donne un pouvoir de communication institutionelle flippant. Dans le meilleur des cas tu n’as que Ronald qui explique en personne la com externe de mc do.
Ça peut aussi faire des sectes intéressantes.
Pis ça résonne avec le livre “Bug Jack Baron” / “Jack Baron Et l’éternité”
Les choses que j’espère n’arriveront pas toutes seules, elles sont vachement moins rentables, mais si on arrive à au moins en rêver et à l’espérer, ça a plus de chance d’arriver.