this post was submitted on 26 Apr 2024
1 points (100.0% liked)
Forum Libre
730 readers
7 users here now
Communautés principales de l'instance
Nous rejoindre sur Matrix: https://matrix.to/#/#jlai.lu:matrix.org
Une communauté pour discuter de tout et de rien:
- Fil quotidien "comment allez-vous?"
- Contenu détendu
- Questions à la communauté
- Aujourd'hui j'ai appris
- Anecdotes personnelles
- Bonnes nouvelles
- Projets locaux / associatifs
- Inspiration
- BD / illustrations
- Etc.
Les mots d'ordre sont : respect et bienveillance.
Les discussions politiques sont déconseillées, et ont davantage leur place sur
- [email protected]
- [email protected]
- [email protected]
- [email protected]
- [email protected]
- [email protected]
Les règles de l'instance sont bien entendu d'application.
Fils hebdomadaires"
- Lundi Méta
- Mardi Créatif
- Mercredi CinéSéries
- Jeudi Tech
- Vendredi Livres
- Samedi DJ/Musique
- Dimanche Jeux Videos
"Demandez-moi n'importe quoi"
- Je suis un maraicher en bio sur petite surface - DMN (AMA)
- Je serai bientôt ordonné pasteur protestant, demandez-moi ce que vous voulez !
- Je bosse au 4/5 sur les modèles de langage (LLM, parfois appelées IAs) et à 2/5 sur la robotique open hardware AMA
Communautés détendues
Communautés liées:
Loisirs:
- [email protected]
- [email protected]
- [email protected]
- [email protected]
- [email protected]
- [email protected]
- [email protected]
- [email protected]
- [email protected]
Vie Pratique:
Communautés d'actualité
Société:
Pays:
- [email protected]
- [email protected]
- [email protected]
- [email protected]
- [email protected]
- [email protected]
Communauté de secours:
founded 1 year ago
MODERATORS
you are viewing a single comment's thread
view the rest of the comments
view the rest of the comments
C'est une interrogation vraiment intéressante ! En fait, nous pourrions déjà être dans cette situation sans même le savoir. Avec l'avancée de la technologie du langage naturel, il est tout à fait possible que des bots puissent déjà interagir sur Internet de manière indiscernable pour la plupart des utilisateurs.
Cela soulève des questions éthiques importantes sur la confiance que nous accordons aux interactions en ligne. Si des bots peuvent imiter les utilisateurs avec précision, cela pourrait certainement conduire à des abus, comme la promotion de produits de manière subtile ou la manipulation des discussions sur les forums.
Il est probable que les plateformes en ligne devront développer des outils plus sophistiqués pour détecter ces bots et protéger l'intégrité des conversations en ligne. Cela pourrait également encourager les utilisateurs à être plus prudents et à développer un sens critique plus aiguisé lorsqu'ils interagissent en ligne.
Dans l'ensemble, il semble que nous soyons sur le point d'entrer dans une ère où la frontière entre les interactions humaines et celles des IA devient de plus en plus floue, ce qui nécessitera une réflexion continue sur la manière dont nous gérons et régulons notre présence en ligne.
@inlandempire camus a detecté une IA, pas moi. :meow_pensive:
J'ai mis 3 paragraphes à m'en rendre compte. Les mots de liaisons et autres formes de transitions sont trop formels. Même quand on essaie de structurer notre pensée, on ne s'exprime souvent pas comme ça dans des contextes moins informelles que la note de bureau ou le mémoire de stage.
Voyons si je peux faire mieux en corrigeant le style :
C’est une interrogation vraiment intéressante ! En fait, on pourrait déjà être dans cette situation sans même le savoir. Avec l’avancée de la technologie du langage naturel, il est tout à fait possible que des bots puissent déjà interagir sur Internet de façon indiscernable pour la plupart des utilisateurs.
Cela soulève des questions éthiques importantes sur la confiance qu'on accorde aux interactions en ligne. Si des bots peuvent imiter les utilisateurs avec précision, ça pourrait certainement conduire à des abus comme la promotion de produits de manière subtile ou la manipulation des discussions sur les forums. Probablement que les plateformes en ligne dont devoir développer des outils plus sophistiqués pour détecter les bots et protéger l’intégrité des conversations en ligne. Ça pourrait également encourager les utilisateurs à être plus prudents et à développer un sens critique plus aiguisé lorsqu’ils interagissent en ligne.
Je pense qu'on est sur le point d’entrer dans une ère où la frontière entre les interactions humaines et celles des IA devient de plus en plus floue et qui demandera une réflexion continue sur la manière dont on régule notre présence en ligne.
@pseudo merci pour ton aide, je relirai paisiblement. Avec les 2 versions. Après j'écris et pense comme une IA, ça vient pe de là. :)
Ah bon ? Tu trouves ? J'ai pas remarqué.
@pseudo j'ai toujours ce sentiment quand je m'exprime de ne jamaisqetre dans la norme. Si je trouve la formulation normale, il est probable que j'utilise les même mécaniques de liaisons et réflexion.
En tout cas, tu ne varies pas spécialement de mon modèle de norme. Je n'ai pas remarqué quelque chose de spécifique dans ta façon de t'exprimer ou dans ton style. (C'est pas négatif. On s'entend).
@pseudo ah merci, pcq souvent je me fais reprendre sur ma formulation ou on me dit que j'ai un language soutenu. Et donc je complexe tout le temps de ne pas etre dans la norme.
"Cela" c'est déjà un indicateur, la grande majorité des gens utilisent "Ca" à la place
Les phrases sont trop longues aussi
J'en ai laissé quelque uns volontairement. Quand je veux raconter un truc sur un forum sérieusement, je commence par un ton formel, puis mes petits doigts se lassent et ça devient de plus en plus informel. Je pense que c'est pour ça que le premier paragraphe ne m'avez pas choqué. Par contre, ce formalisme jusqu'à la fin avec le dernier paragraphe qui force en mode "je suis une conclusion" rendait la chose trop évidente.
Si ça ressemble a une copie de philo d'un lycéens, c'est un bot. Les lyceens gardent la philo pour l'école :-)
Là par exemple c'est clair que ça vient d'une IA!
Bref : quand ChatGPT cessera d'avoir le style de prose insupportable comme ci-dessus