Résultat du test :

Auteur : Chrétien
Date : 01 juin24, 03:19
Message : A la question: "Est-il raisonnable de dire que Dieu a échoué dans ses prophéties ?"

ChatGPT répond:
ChatGPT a écrit :Selon la Bible, il n'est pas raisonnable de dire que Dieu a échoué dans l'accomplissement de ses prophéties. Voici quelques points qui expliquent pourquoi, du point de vue biblique, Dieu n'échoue pas dans l'accomplissement de ses prophéties :

1. Nature de Dieu

Omniscience et Omnipotence : La Bible décrit Dieu comme omniscient (tout-sachant) et omnipotent (tout-puissant). Par exemple, dans Ésaïe 46:9-10, Dieu dit : "Je suis Dieu, et il n'y en a point d'autre; je suis Dieu, et nul n'est semblable à moi. J'annonce dès le commencement ce qui doit arriver, et longtemps d'avance ce qui n'est pas encore accompli; je dis : Mes arrêts subsisteront, et j'exécuterai toute ma volonté."
Infaillibilité : Dieu est considéré comme infaillible et incapable de mentir (Tite 1:2, Hébreux 6:18). Cela implique que ses prophéties ne peuvent pas échouer.

2. Prophéties Accomplies

Jésus-Christ : De nombreuses prophéties de l'Ancien Testament concernant le Messie sont considérées comme accomplies en Jésus-Christ. Par exemple, la naissance de Jésus à Bethléhem (Michée 5:2) et sa crucifixion (Psaume 22, Ésaïe 53).

Prophéties Historiques : Divers événements historiques prophétisés dans l'Ancien Testament se sont réalisés, comme la destruction de Jérusalem (Ésaïe 39:6-7, Jérémie 25:9-12) et la captivité babylonienne.

3. Prophéties Futures

Temps de Réalisation :
Certaines prophéties bibliques concernent des événements futurs ou eschatologiques (la fin des temps), et leur accomplissement est encore attendu. Le fait qu'elles ne se soient pas encore réalisées ne signifie pas qu'elles échoueront. La Bible enseigne que le timing de Dieu est parfait (2 Pierre 3:8-9).

4. Interprétation et Compréhension Humaine

Malentendus et Interprétations Erronées : Parfois, les êtres humains peuvent mal comprendre ou mal interpréter les prophéties. Ce n'est pas une faute de la part de Dieu, mais une limitation humaine. Par exemple, certaines prophéties peuvent être symboliques ou avoir des significations multiples.

Conditions Attachées : Certaines prophéties bibliques sont conditionnelles, dépendant de la réponse humaine. Par exemple, les avertissements prophétiques d'Ésaïe et Jérémie souvent incluaient des appels à la repentance, suggérant que les événements prophétisés pouvaient être évités ou modifiés en fonction de la réponse du peuple.

Conclusion
La Bible présente Dieu comme infaillible et ses prophéties comme certaines et inévitables. Les apparents "échecs" ou délais dans l'accomplissement des prophéties peuvent souvent être attribués à des malentendus humains, des conditions non remplies, ou des événements qui sont encore à venir. Par conséquent, du point de vue biblique, il n'est pas raisonnable de dire que Dieu a échoué dans l'accomplissement de ses prophéties.

Auteur : gzabirji
Date : 01 juin24, 03:32
Message : Quel est l'intérêt d'avoir posté ce topic dans le sous-sous-sous-forum "Watchtower"? 🤔
Auteur : Chrétien
Date : 01 juin24, 03:50
Message : J'ai mes raisons.

Je trouve que, ces derniers temps, tu t'autoproclames modérateur. Je te prierai dorénavant de ne pas intervenir si ce n'est pour répondre à des questions bibliques.

Je te demande de rester à ta place.
Auteur : keinlezard
Date : 09 juin24, 21:34
Message : Hello,

ChatGPT et les autres LLM ne sont que des machines "statistiques" , ils ne font que poser les mots les plus probables à la suite les uns des autres.

Il n'y a ici aucune intelligence et aucune culture , ils ne comprennent pas les textes qu'on leur fournit.

Donc la question que je me pose , et qui n'est pas explicitée dans ton message est : " Quelle est la finalité de ton post ? "

Cordialement
Auteur : BenFis
Date : 10 juin24, 00:20
Message : ChatGPT ne fait que donner une réponse basée sur la Bible. En somme, puisque la Bible dit que Dieu est omniscient c'est donc que ses prophéties s'accomplissent ...selon la Bible.

En fait, ce sont les religions qui presentent le Dieu de la Bible comme omniscient, mais l'est il vraiment ?
Auteur : MonstreLePuissant
Date : 10 juin24, 01:12
Message : ChatGPT sait ce que les hommes savent. Si les hommes se trompent, ChatGPT se trompera aussi.
Auteur : Potjevleesch
Date : 10 juin24, 02:09
Message : Est-il raisonnable de dire qu'Allah a échoué dans ses prophéties ?

ChatGPT
"L'affirmation selon laquelle "Allah a échoué dans ses prophéties" est controversée et sensible, particulièrement dans le contexte de la foi islamique. Pour comprendre cette question, il est important de considérer les points suivants :

La nature des prophéties dans l'islam : Dans l'islam, les prophéties sont perçues comme des révélations divines transmises par les prophètes. Le Coran, considéré comme la parole d'Allah, contient des prophéties et des messages qui sont interprétés comme étant éternellement vrais et justes.

L'interprétation des prophéties : Les prophéties peuvent être sujettes à diverses interprétations. Ce qui peut être perçu comme un "échec" par certains peut être interprété différemment par d'autres. Les savants islamiques passent des années à étudier les textes et les contextes pour fournir des interprétations et des exégèses.

Le concept de l'infaillibilité divine : Dans la théologie islamique, Allah est considéré comme parfait et infaillible. Dire qu'Allah a "échoué" serait contraire aux principes fondamentaux de la foi islamique. Les musulmans croient que toute la création et tous les événements se déroulent selon le plan divin.

Les prophètes humains : Les prophètes eux-mêmes, bien que guidés par Allah, restent des êtres humains et peuvent faire des erreurs dans leur vie personnelle. Cependant, les messages qu'ils transmettent, selon la croyance islamique, sont préservés et exempts d'erreurs.

En conclusion, pour les croyants musulmans, il n'est pas raisonnable de dire qu'Allah a échoué dans ses prophéties, car cela contredit la croyance en l'infaillibilité divine et la perfection des révélations. Pour ceux qui ne partagent pas cette foi, la question peut être vue sous un angle différent, mais il est essentiel de respecter les croyances et les sensibilités des autres dans toute discussion sur la religion."


c'est la même chose pour le Dieu de la Bible ?

ChatGPT
"Oui, la question de savoir si Dieu a échoué dans ses prophéties est également controversée et sensible dans le contexte de la foi chrétienne et juive. Voici quelques points à considérer concernant le Dieu de la Bible :

La nature des prophéties bibliques : Dans la Bible, les prophéties sont des messages divins délivrés par les prophètes. Elles peuvent concerner des événements futurs, des avertissements, des promesses de salut, ou des jugements. Les croyants considèrent ces prophéties comme inspirées par Dieu et donc infaillibles.

L'interprétation des prophéties : Les prophéties bibliques peuvent être interprétées de différentes manières. Certaines prophéties sont vues comme ayant été accomplies littéralement, d'autres symboliquement, et certaines sont encore attendues. Les différentes dénominations chrétiennes et les traditions juives peuvent avoir des interprétations variées de ces prophéties.

Le concept de l'infaillibilité divine : Dans le christianisme et le judaïsme, Dieu est également considéré comme parfait et infaillible. Dire que Dieu a "échoué" dans ses prophéties serait contraire aux croyances fondamentales de ces religions, qui maintiennent que Dieu est omnipotent et omniscient.

Les prophètes humains : Comme dans l'islam, les prophètes bibliques sont des êtres humains. Ils peuvent commettre des erreurs dans leur vie personnelle, mais les messages prophétiques qu'ils transmettent sont considérés comme provenant de Dieu et donc exempts d'erreurs.

Les prophéties messianiques : Dans le christianisme, les prophéties concernant le Messie (Jésus-Christ) sont centrales. Les chrétiens croient que ces prophéties ont été accomplies dans la personne de Jésus, tandis que les juifs attendent encore la venue du Messie."

En conclusion, pour les croyants juifs et chrétiens, il n'est pas raisonnable de dire que Dieu a échoué dans ses prophéties, car cela irait à l'encontre de la croyance en la perfection et l'infaillibilité de Dieu. Comme pour l'islam, il est important de respecter les croyances et les sensibilités des personnes lors de discussions sur les sujets religieux.

n'est ce pas, au final, la même chose pour toutes les religions prophétiques ?

ChatGPT
"En effet, il existe des similitudes fondamentales dans la manière dont les religions prophétiques traitent les prophéties et la nature divine. Voici quelques points communs :

Infaillibilité Divine : Dans toutes les grandes religions prophétiques, Dieu ou la divinité suprême est perçu comme parfait et infaillible. Les messages prophétiques sont considérés comme venant de cette source divine infaillible, et par conséquent, ils sont vus comme exempts d'erreurs.

Nature des Prophéties : Les prophéties dans ces religions sont des communications divines transmises par des prophètes. Elles peuvent inclure des prédictions sur l'avenir, des avertissements, des conseils moraux ou des révélations sur la nature de Dieu et de l'humanité.

Interprétation des Prophéties : Les prophéties peuvent être interprétées de différentes manières. L'interprétation littérale, symbolique ou spirituelle des prophéties peut varier non seulement entre les différentes religions, mais aussi au sein d'une même tradition religieuse.

Prophètes Humains : Les prophètes, bien que porteurs de messages divins, restent des êtres humains. Leur humanité peut se manifester dans leurs actions et décisions personnelles, mais cela n'affecte pas la croyance en l'infaillibilité des messages qu'ils transmettent de la part de Dieu.

Réponses aux Accusations d'Échec : Lorsqu'il est allégué qu'une prophétie ne s'est pas réalisée, les réponses au sein des religions prophétiques peuvent inclure des interprétations symboliques ou allégoriques de la prophétie, une attente de son accomplissement futur, ou une réévaluation du contexte historique et culturel dans lequel la prophétie a été faite.

Exemples Concrets
Islam : Les musulmans croient que les prophéties du Coran et du Prophète Muhammad sont infaillibles et que tout ce qui est prédit s'accomplira selon le plan divin.
Christianisme : Les chrétiens croient que les prophéties de la Bible, en particulier celles concernant la vie, la mort et la résurrection de Jésus-Christ, sont infaillibles et se sont accomplies ou s'accompliront.
Judaïsme : Les juifs attendent encore l'accomplissement de certaines prophéties messianiques et croient en l'infaillibilité des révélations de la Torah et des prophètes.
En résumé, les religions prophétiques partagent une vision commune de l'infaillibilité divine et de la nature sacrée des prophéties. Elles répondent aux accusations d'échec des prophéties en insistant sur la nécessité d'une interprétation correcte, souvent ancrée dans des contextes historiques, symboliques ou futurs."
Auteur : keinlezard
Date : 10 juin24, 02:37
Message : Hello,

Donc la conclusion est que Islam = Christianisme = Judaisme = toute religion posant des miracles et de prophétie ... c'est à dire que ce ne sont que des âneries :)

ChatGPT n'étant qu'un LLM , ne conclueras que les aneries humaines déjà pondus avant lui ... autrement dit il ne fera qu'un plagiat de piètre qualité :)


Mais cela ne réponds pas au "pourquoi" du sujet :) :)

Cordialement
Auteur : Potjevleesch
Date : 10 juin24, 02:52
Message : Chrétien dit qu'il a ses raisons d'avoir posté ici donc logiquement, c'est que la Watchtower doit affirmer ou sous entendre que Dieu a échoué dans ses prophéties.
Auteur : gzabirji
Date : 10 juin24, 03:55
Message :
Potjevleesch a écrit : 10 juin24, 02:52 Chrétien dit qu'il a ses raisons d'avoir posté ici donc logiquement, c'est que la Watchtower doit affirmer ou sous entendre que Dieu a échoué dans ses prophéties.
Ah, d'accord, bah super, la conclusion...

Merci ChatGPT. 👍 :non:
Auteur : keinlezard
Date : 10 juin24, 21:37
Message : Hello,
Potjevleesch a écrit : 10 juin24, 02:52 Chrétien dit qu'il a ses raisons d'avoir posté ici donc logiquement, c'est que la Watchtower doit affirmer ou sous entendre que Dieu a échoué dans ses prophéties.
je comprend bien. Mais ce que je veux soulever c'est que ce que peut "apporter" un outils statistique ce n'est qu'une information statistique
ici c'est l'information statistique concernant le contenu de "phrase les plus probable" concernant ce sujet précis.

Mais à quoi cela sert il ?

Lorsqu'on donne une information quelle qu'elle soit on la commente, on l'analyse c'est un minimum


Cordialement
Auteur : gzabirji
Date : 10 juin24, 21:53
Message :
keinlezard a écrit : 10 juin24, 21:37 je comprend bien. Mais ce que je veux soulever c'est que ce que peut "apporter" un outils statistique ce n'est qu'une information statistique
ici c'est l'information statistique concernant le contenu de "phrase les plus probable" concernant ce sujet précis.

Mais à quoi cela sert il ?
À rien, visiblement, d'autant plus que ceux qui utilisent régulièrement ChatGPT (c'est mon cas) savent très bien que ce LLM commet de nombreuses erreurs, et qu'on peut lui faire dire à peu près tout ce qu'on veut en fonction du "prompt" employé, surtout en matière de religion et de spiritualité.

Ainsi, afficher un argument en disant "C'est ce que dit ChatGPT !" revient au mieux à passer pour un imbécile, au pire à prendre les gens pour des cons.

Bien à vous. 🙏
Auteur : Pollux
Date : 10 juin24, 22:59
Message : Je trouve le Chat GPT très utile pour se renseigner dans les domaines scientifiques et historiques mais dans d'autres comme l'interprétation de la Bible ça part un peu dans tous les sens mais c'est compréhensible vu la diversité des croyances religieuses et autres à propos de la Bible.
Auteur : Chrétien
Date : 11 juin24, 05:34
Message : Si j'ai mis cela ici, c'est qu'en fait, je voulais vous montrer qu'une intelligence artificielle peut aussi vous donner des réponses.

Une intelligence artificielle ne vous donnera que ce qu'elle peut collecter comme information (elle possède une très grosse bibliothèque personnelle et elle ne peut pas se connecter à Internet pour faire ses propres recherches).

Ce n'est en aucun cas une référence, mais elle peut vous donner des références (sources) que vous n'auriez pas eu par une recherche Google par exemple.

En tant que développeur web, on sait très bien que si l'on demande une programmation à ChatGPT, il y aura forcément des erreurs, mais la trame est là et il suffit de rectifier les erreurs et le tour est joué.
Auteur : keinlezard
Date : 11 juin24, 21:11
Message :
Chrétien a écrit : 11 juin24, 05:34 Si j'ai mis cela ici, c'est qu'en fait, je voulais vous montrer qu'une intelligence artificielle peut aussi vous donner des réponses.
En même temps c'était un peu pour cela que l'on mets au point des LLMs il me semble.
Chrétien a écrit : 11 juin24, 05:34 Une intelligence artificielle ne vous donnera que ce qu'elle peut collecter comme information (elle possède une très grosse bibliothèque personnelle et elle ne peut pas se connecter à Internet pour faire ses propres recherches).
Non seulement , ce qu'elle peut collecter mais en tant que machine statistique si elle rencontre 10 fois une aneries et 1 fois une information pertinente , elle répondra à coup sur une ânerie :(
Chrétien a écrit : 11 juin24, 05:34 Ce n'est en aucun cas une référence, mais elle peut vous donner des références (sources) que vous n'auriez pas eu par une recherche Google par exemple.
J'ai encore rarement vu une IA donner des références pertinente et encore plus rarement des références bibliographique digne de ce nom , peut être gemini dans le domaine scientifique mais même là il faut une expertise humaine en amont , sinon tu vas droit à la catastrophe :(
Chrétien a écrit : 11 juin24, 05:34 En tant que développeur web, on sait très bien que si l'on demande une programmation à ChatGPT, il y aura forcément des erreurs, mais la trame est là et il suffit de rectifier les erreurs et le tour est joué.
une erreur de programmation n'est rien en comparaison d'une référence douteuse , voir inventée de toute piece par un LLMs ...

dans une erreur de programmation en général le programme ne produira pas le résultat souhaité et dans la majorité des cas il ne fonctionnera simplement pas ou ne sera pas compilable ... j'ai essaye en Rust , en shell , en Ada, en C , en SQL , en Fortran .... et à chaque fois il fallait reprendre le code derrière

Alors imaginons sur un sujet plus "sérieux" comme un empoissonnement , une formule chimique pour une réaction de cours avec par exemple acide nitrique , acide sulfurique et Toluène ... ( pour produire l'arome de banane par exemple ) ... perso je ne m'y risquerais pas ... :)

Pour une rédaction ? c'est pas beaucoup mieux et en plus sur des sujet bateau , ils commettent également des erreurs ...

Maintenant prenons la Bible .. que nous sortira le LLM ? simplement ce qu'il a ingurgité et qui était disponible ... s'il lit majoritairement une littérature
mooniste , il sortira des concept de la Secte Moon , s'il analyse principalement de la littérature Scientologue .. nous aurons alors une théologie de la Sciento

Sur qu'elles données "théologiques" ont été entrainé les LLM ?? un corpus catho ? un corpus Protestant ? personne ne le sait puisque c'est un secret industriel
en plus d'être potentiellement une exploitation sans droit de matériel sous copyright ...

Donc il me semble qu'il faille être extrément prudent ..

Par contre si tu veux illustrer un propos du style ... "le LLM racontera la même bouillie que celle que sorte nombre de religion" cela est recevable
car tu illustres alors qu'une machine statistique produit le même genre de littérature que celle proposée par les religions ..

cordialement
Auteur : ronronladouceur
Date : 12 juin24, 04:08
Message :
keinlezard a écrit : 11 juin24, 21:11 Non seulement , ce qu'elle peut collecter mais en tant que machine statistique si elle rencontre 10 fois une aneries et 1 fois une information pertinente , elle répondra à coup sur une ânerie :(
Tu confrontes la machine et tu pourrais être surpris. D'ailleurs tu as le choix offert par la machine d'approfondir le sujet... J'ai souvent utilisé le mot ''contester cette information'' et tu trouves de l'info supplémentaire... Assez souvent on arrive à une nuance qui relativise le propos de départ, etc.

L'outil parfois interprète mal la question ou la demande d'info. Tu insistes ou corriges, et l'IA reconnaît l'erreur ou le manquement...
Pour une rédaction ? c'est pas beaucoup mieux et en plus sur des sujet bateau , ils commettent également des erreurs ...
On a obtenu du premier coup un très bon résultat en demandant à l'outil de rédiger une invitation à un party en incluant quelques éléments : coordonnées, horaire, humour, style à la fortune du pot, feux d'artifices, guimauves sur le feu, avec thème, etc.

Tout dépend, j'imagine...
Maintenant prenons la Bible .. que nous sortira le LLM ? simplement ce qu'il a ingurgité et qui était disponible ... s'il lit majoritairement une littérature
mooniste , il sortira des concept de la Secte Moon , s'il analyse principalement de la littérature Scientologue .. nous aurons alors une théologie de la Sciento
Bien sûr, mais tu peux demander à l'outil de poursuivre sur le même thème mais en comparant avec d'autres croyances... Un peu comme une conversation...

Note : L'outil mettra fin à la conversation assez rapidement. Mais alors tu peux changer d'IA, etc.
Donc il me semble qu'il faille être extrément prudent ..
Je suis bien d'accord... Il y a un modus vivendi, une connaissance de l'outil et de ses limites, qui vient avec la pratique...

Il y a même des thèmes ''chauds'' que l'IA refusera d'exploiter...

Tout n'est certainement pas tout négatif... Mais comme tu le dis, faut être extrêmement prudent...

Etc.
Auteur : Chrétien
Date : 15 juin24, 00:24
Message :
keinlezard a écrit : 11 juin24, 21:11 En même temps c'était un peu pour cela que l'on mets au point des LLMs il me semble.


Non seulement , ce qu'elle peut collecter mais en tant que machine statistique si elle rencontre 10 fois une aneries et 1 fois une information pertinente , elle répondra à coup sur une ânerie :(
Ce n'est pas comme cela que cela fonctionne. Il y a quand même un algorithme qui vérifie les informations... Faut pas non plus abuser. Quand je dis qu'il peut y avoir des erreurs de codes, il faut quand même être un programmeur pour s'en apercevoir...
Keinlézard a écrit :J'ai encore rarement vu une IA donner des références pertinente et encore plus rarement des références bibliographique digne de ce nom , peut être gemini dans le domaine scientifique mais même là il faut une expertise humaine en amont , sinon tu vas droit à la catastrophe :(
Tu n'as pas dû en faire beaucoup dans ce cas...

Keinlézard a écrit :une erreur de programmation n'est rien en comparaison d'une référence douteuse , voir inventée de toute piece par un LLMs ...
Les IA sur le net ne commettent pas ce genre d'erreurs. elles emettent des hypothèses, c'est tout.
Keinlézard a écrit :dans une erreur de programmation en général le programme ne produira pas le résultat souhaité et dans la majorité des cas il ne fonctionnera simplement pas ou ne sera pas compilable ... j'ai essaye en Rust , en shell , en Ada, en C , en SQL , en Fortran .... et à chaque fois il fallait reprendre le code derrière
Moi, je suis au C++, au php, et en ASP (plus rarement maintenant). Il génèrera un message d'erreur tout simplement. Quand au SQL, les erreurs de l'IA sont souvent liées aux mises à jour régulières dont l'IA n'a pas forcément connaissance à l'instant T.
Keinlézard a écrit :Alors imaginons sur un sujet plus "sérieux" comme un empoissonnement , une formule chimique pour une réaction de cours avec par exemple acide nitrique , acide sulfurique et Toluène ... ( pour produire l'arome de banane par exemple ) ... perso je ne m'y risquerais pas ... :)
Parce que tu crois que, pour une formule scientifique , il serait raisonnable de laisser l'IA réaliser la formule ? Il faut être équilibré et raisonnable quand même. On en peut pas tout donner à une IA !
Keinlézard a écrit :Pour une rédaction ? c'est pas beaucoup mieux et en plus sur des sujet bateau , ils commettent également des erreurs ...
Pour résumer, l'IA a été créée par des humains imparfaits. Tu crois qu'elle peut faire des choses parfaites ? Non...
Auteur : keinlezard
Date : 16 juin24, 21:15
Message : Hello,
Chrétien a écrit : 15 juin24, 00:24 Ce n'est pas comme cela que cela fonctionne. Il y a quand même un algorithme qui vérifie les informations... Faut pas non plus abuser. Quand je dis qu'il peut y avoir des erreurs de codes, il faut quand même être un programmeur pour s'en apercevoir...
Lesquels ?
Il ne passe pas une semaine ou un mois sans que les grandes entreprises de la tech soient obligées à posteriori de limiter leur IA à cause de leur dérives.

Si les spécialistes en IA contrôle à posteriori c'est donc qu'il n'y a pas de garde-fou pendant l'apprentissage.

Les exemples malheureux de Microsoft ( mais pas que ) avec leurs agents conversationnels devant un vrai petit nazillon en l'espace d'un WE laisse pensif sur les fameux "contrôles"

Quand aux controles à priori Aurélie Jean dans "Les algorithmes font-ils la loi" relate l'expérience à la "minority report" dans la police américaines dans certain états

L'apprentissage de l'IA fait sur les données à viré au fiasco ... en effet la machine étaient nourrie avec les crimes déjà connu, élucidé ... donc dans un premier temps tout semblait fonctionner pour le mieux ... la police semblait "plus" efficace ... jusqu'à ce que ... le modèle foire complètement ...

Pourquoi foire t il ?

Simple et logique un enfant de primaire le comprend immédiatement ... mais pas un spécialiste pas un policier pas un ingénieur dans le projet ne l'a vu !

La machine est nourrie avec les crimes connu .. or est évident que sur les vols à l'arraché , les points de deal , les zones non "sécure" ( désolé pour l'anglicisme )
la machine avec ses données et son apprentissage visait les lieux et quartier qu'on lui avait appris à reconnaitre ...

Or un humain n'est pas une machine .... les zones de crimes ont migrées tout bêtement ... résultat des courses la police sécurisait des zones où plus rien ne se passaient sur les conseille d'un IA !!!

A quel endroit de l'apprentissage la machines ou l'algorithme se corrigeait , Alors même que l'humain n'y avait pas pensé ?
Chrétien a écrit : 15 juin24, 00:24 Tu n'as pas dû en faire beaucoup dans ce cas...

Suffisament dans mon taf , curieux comme pour toutes les nouveautés et suffisamment pour m'en faire une idée assez précises.

Dans les modèles les "plus pertinent" j'utilise Alphafold3 , qui est un système hyper spécialisé de repliement de protéine et pas un chercheur l'utilisant n'irait faire confiance aveuglément à une résultat d'Alphafold3 ... bien au contraire , l'outils sera utilisé comme tamis pour filtrer les "possibles" mais jamais pour donner la "solution" indiscutable.

Alors sur un modèle générique, il faut d'autant plus être prudent ...


Chrétien a écrit : 15 juin24, 00:24 Les IA sur le net ne commettent pas ce genre d'erreurs. elles emettent des hypothèses, c'est tout.
Non pas.

C'est un modèle statistique uniquement et seulement. Pour émettre une hypothèse, il faudrait avoir la connaissance consciente du problème.
Or l'IA ne comprend pas ce quelle analyse. Il n'y a ni conscience , ni intélligence , ce n'est qu'une analyse statistique sur des "Big Data" rien d'autre


Chrétien a écrit : 15 juin24, 00:24 Moi, je suis au C++, au php, et en ASP (plus rarement maintenant). Il génèrera un message d'erreur tout simplement. Quand au SQL, les erreurs de l'IA sont souvent liées aux mises à jour régulières dont l'IA n'a pas forcément connaissance à l'instant T.
Donc, le code n'est pas utilisable tel que sans l'intervention du spécialiste humain.

Et ici au niveau code nous sommes dans la logique pure !

Dans les trucs que j'ai déjà demandé à ChatGPT c'était de récrire ( même pas de comprendre ou d'interpréter ) le code spaghetti fortran d'un bout de programme provenant de Crystal (https://www.crystal.unito.it/)

Un truc avec des "goto 30" des "if (energy.lq.correct) 12, 20, 16"

au bout de 3 itérations , malgré les corrections que j'apportais à chaque fois , il n'a pas été en mesure de me fournir un code fonctionnel.

Alors que ce type de modif est sommes toute trivial ... puisqu'il suffit de développer le code , puis de le refactoriser


Ainsi donc sur des choses "simple" et quasi fixée dans le marbre ... on devrait dire silicium , les LLMs sont à la peine.
Sur une chose qui bouge en permanence "l'expérience humaine" , la "société" , "les idées" comment et par quel miracle serait il possible que les IA soient pertinente sans expertises humaine à posteriori ?



Chrétien a écrit : 15 juin24, 00:24 Parce que tu crois que, pour une formule scientifique , il serait raisonnable de laisser l'IA réaliser la formule ? Il faut être équilibré et raisonnable quand même. On en peut pas tout donner à une IA !
C'est de la chimie de base que l'on fait en terminal ( au moins à mon époque ) les source et formule de poisons sont accessibles librement sur le WEB
et si tu fais un peu de botanique reconnaître une datura ou la grande ciguë c'est trivial ... dans n'importe quel jardin tu trouve du laurier rose , les 1er Mai
le poison est même vendu ( muguet )

Le fait est que les LLMs généralistes sont à la peine simplement et que leur analyse reste assez pauvre au final

AMHA cela ne sera qu'un effet de mode dans le grand public et l'attrait de la nouveauté s'émoussera.
Dans le domaine professionnel , un certain nombre d'avancée avec des LLMs spécialisé sont par contre à attendre


Chrétien a écrit : 15 juin24, 00:24 Pour résumer, l'IA a été créée par des humains imparfaits. Tu crois qu'elle peut faire des choses parfaites ? Non...
Il n'est pas question de cela pour moi.

L'homme n'est pas imparfait , il est adapté à un environnement ( D'ailleurs que serait un homme "parfait" ? )
Son cerveau qui a évolué pendant des millions d'année pour la survie , plus il réagit dans une certaine forme d’excès , plus il a de chance
de survie , car il faut mieux avoir peur pour rien , que ne pas avoir peur et mourir :)
Voir : "Quand est ce qu'on biaise" de Thomas C. Durand , "La force de nos Bugs" de Sebastian Dieguez pour les références les plus récentes

L'IA n'a à priori pas ces biais. Et est nourrie de données stockées. Si l'IA n'est pas "digne de confiance" à cause de biais. Il faut ici viser les opérateurs
humains uniquement ... voir par exemple la dernière trouvaille de l'IA sur la femme parfaite

https://www.lemonde.fr/idees/article/20 ... _3232.html

Ici nous avons donc un biais supplémentaire la perfection est "à peau claire" !!!

L'IA nourrie par les stéréotype qu'elle trouve sur internet et dans les représentation de la beauté que lui fournissent des opérateur humain décide donc , puisque ce n'est qu'une machine statistique , que la beauté est ainsi !

Ici à nouveau ( l'article est de juin 2024 ) où est donc la correction que tu nous expose dans tes premières phrases ?
Chrétien a écrit : 15 juin24, 00:24 Ce n'est pas comme cela que cela fonctionne. Il y a quand même un algorithme qui vérifie les informations... Faut pas non plus abuser. Quand je dis qu'il peut y avoir des erreurs de codes, il faut quand même être un programmeur pour s'en apercevoir...
Il n'y a pas de correction ... 1.6 milliard d'humain sont en Inde , un autre 1.5 milliard sont Asiatique , un autre grosse partie 1.4 milliard sont de type africains
Puis nous avons les mélanésien , les population Sud Américaines, ... bref la beauté made by IA ... et tellement éloigné de la réalité humaine la plus prosaïque
et terre à terre qu'on est en droit de ce demander où elle a été pécher les informations ? Et quid des opérateurs humains ?


Comprenons nous , je ne nie pas l’intérêt de l'IA , je l'utilise , mais l'IA généraliste , générative , n'est qu'un outils parmi d'autre.
Et c'est un outils statistiques , qui doit être utilisé comme un outils , jamais il ne viendra à l'idée de personne de demander à sa perceuse , sa pelle ou son marteau
de ranger la vaisselle et de faire le ménage ... encore moins de garder la maison et d'éduquer les enfants.

les LLMs doivent absolument rester ce qu'ils sont "des outils" et ne pas être vu ni utilisé comme des succédané de l'esprit humain et de son analyse

Si on substitue le sens critique par les réponses de l'IA nous allons alors à la catastrophe


Cordialement
Cordialement
Auteur : Chrétien
Date : 16 juin24, 22:40
Message : Je comprends ce que tu dis et je l'entends.

Il faut prendre l'IA comme un assistant et non comme une référence et tu as raison.

Il n'empêche que l'IA apporte des idées que nous n'aurions pas. Il aborde chaque conversations de manière très générale. Cela peut être utile, mais une IA ne remplacera jamais l'homme.

Dans le cadre de mon code, je lui ai demandé de créer u système de sondage en PHP en fonction de l'âge de la personne.

ChatGPT s'était mélangé les pinceaux dans les if...else. il n'arrivait pas à gérer les if... else avec les bonnes fonctions (construct).

J'ai dû moi-même rétablir les priorités dans le code.

Nombre de messages affichés : 19