this post was submitted on 26 Apr 2024
1 points (100.0% liked)

Forum Libre

730 readers
7 users here now

Communautés principales de l'instance

Nous rejoindre sur Matrix: https://matrix.to/#/#jlai.lu:matrix.org

Une communauté pour discuter de tout et de rien:

Les mots d'ordre sont : respect et bienveillance.

Les discussions politiques sont déconseillées, et ont davantage leur place sur

Les règles de l'instance sont bien entendu d'application.

Fils hebdomadaires"

"Demandez-moi n'importe quoi"

Communautés détendues

Communautés liées:

Loisirs:

Vie Pratique:

Communautés d'actualité

Société:

Pays:

Communauté de secours:

founded 1 year ago
MODERATORS
 

Hello tout le monde,

Réflexion que je me faisais à l'instant: actuellement, tout le monde se moque un peu du ton très pompeux et sérieux des IA, qui les rendent rapidement détectables.

Que se passera-t-il le jour où cela ne sera plus le cas? Imaginez un bot capable de s'exprimer comme un-e utilisataire normal-e, donc avec ses tics de langages, ses fautes de grammaire, ses typos, etc., et qui en plus posterait ou commenterait à une fréquence similaire à un humain?

Imaginez ensuite que ces bots, il y en ait des milliers.

Le premier scénario qui vient à l'esprit c'est clairement la promotion de produits, puisque ces recommendations paraîtront légitimes.

Le second c'est des forums comme Lemmy ou Reddit où une partie non négligeable des membres seraient en fait des bots, indétectables. On peut imaginer un bot qui génère une image de chat par IA et poste toutes les semaines une photo différent du "même chat".

Qu'en pensez-vous?

you are viewing a single comment's thread
view the rest of the comments
[–] [email protected] 0 points 6 months ago (1 children)

Oui effectivement, c'est le Turing Test, mais appliqué sur les forums.

Je ne sais pas si ça mettra temps de temps que ça, reproduire la manière de parler d'un utilisateur moyen sur Internet me semble assez simple si le corpus de texte est assez important

[–] [email protected] 0 points 6 months ago (1 children)

A mon avis, si on donne plus des règles au Turing Test, ça perde son valeur comme teste. Il faut que ça soit n'importe quelle conversation, de n'importe quelle durée, avec la même machine. Et il faut que ça soit impossible a déterminer si c'est une machine.

Si un robot est juste très doué a parler sur Lemmy, c'est pas un être sensible. Les GPT sont pas capable d'une conversation infini sans éventuellement révéler leur nature. Peut être une conversation très longue, mais pas infini.

[–] [email protected] 0 points 6 months ago (1 children)

Tu as raison pour le Turing Test, après on peut justement discuter de tests moins forts que le test de Turing.

Si un bot passe le Lemmy test (donc arrive à se faire passer pour un user normal sans qu'on le détecte, indéfiniment), ça changera un grand changement.

[–] [email protected] 0 points 6 months ago* (last edited 6 months ago) (1 children)

Oui t'as raison. Et il faut pas être convaincant pour un durée infini pour passer le Lemmy test, juste pour la durée d'une conversation sur une chaîne de commentaires.

[–] [email protected] 0 points 6 months ago

Ca dépend, sur une petite communauté comme ici, il faudrait être consistant jour après jour vu le peu de membres, les gens se rappelleraient de la personne, et trouveraient ça bizarre s'il changeait de métier/hobby/style du jour au lendemain