Imaginez que vous vous asseyez avec un modèle d’IA pour un entretien oral de deux heures. Une voix amicale vous guide tout au long d’une conversation qui porte sur votre enfance, vos souvenirs de formation, votre carrière et vos idées sur la politique d’immigration. Peu de temps après, une réplique virtuelle de vous est capable d’incarner vos valeurs et vos préférences avec une précision étonnante.

C’est désormais possible, selon un nouvel article d’une équipe comprenant des chercheurs de Stanford et de Google DeepMind, qui a été publié sur arXiv et n’a pas encore fait l’objet d’un examen par les pairs.

Dirigée par Joon Sung Park, doctorant en informatique à Stanford, l’équipe a recruté 1 000 personnes de différents âges, sexes, races, régions, niveaux d’éducation et idéologies politiques. Ces personnes ont été payées jusqu’à 100 dollars pour leur participation. À partir des entretiens menés avec ces personnes, l’équipe a créé des agents reproduisant ces individus. Pour déterminer dans quelle mesure les agents imitaient leurs homologues humains, les participants ont effectué une série de tests de personnalité, d’enquêtes sociales et de jeux de logique, deux fois chacun, à deux semaines d’intervalle ; puis les agents ont effectué les mêmes exercices. Les résultats ont été similaires à 85 %.

  • Kuinox@lemmy.world
    link
    fedilink
    Français
    arrow-up
    1
    ·
    edit-2
    3 days ago

    Such simulation agents are slightly different from the agents that are dominating the work of leading AI companies today. Called tool-based agents, those are models built to do things for you, not converse with you.

    Mais ca n’a rien a voir ?!? Les tool-based agents c’est autre chose.
    C’est du bullshit journalistique, les buts des chercheurs n’as jamais été de “repliquer la personalité”.
    Je cite le papier:

    We present a novel agent architecture that simulates the attitudes and behaviors of 1,052 real individuals
    The generative agents replicate participants’ responses on the General Social Survey 85% as accurately as participants replicate their own answers two weeks later, and perform comparably in predicting personality traits and outcomes in experimental replications.

    85% c’est extrement mauvais, surtout pour une tache de mémorisation ici.
    Le but des chercheurs c’est de faire un simulateur médiocre d’humain pour tester des mesures politiques et mesurer l’impact. On est a des années lumière de vouloir dupliquer une personalité

    • leftascenter@jlai.luOP
      link
      fedilink
      Français
      arrow-up
      1
      ·
      3 days ago

      On est a des années lumière de vouloir dupliquer une personalité

      Y’a déjà un marché attaqué pour ça avec les morts.

      Le but des chercheurs c’est de faire un simulateur médiocre d’humain

      On est loin du médiocre mais c’est leur but oui

      tester des mesures politiques et mesurer l’impact

      https://arxiv.org/abs/2410.20746

      Pas encore eu le temps de lire plus que le résumé, je m’y attelle ce soir.