OpenAI: La fin de Google et de l'enseignement traditionnel ?

1er
OP
Anewone

Anewone

Elite
Je vais partager ce que j'ai déjà moi même implémenter pour mon taff depuis quelques semaines, et les dernières MAJ que je trouve intéressantes et que je vais/ai déjà exploité(r).


1 - On peut faire tourner son propre "Large Language Model (LLM)" (ce qu'est ChatGPT) sur sa machine (ou smartphone ou même.. un Raspberry Pi !) via LLaMA 7B (7B pour 7 milliards de paramètres). Pour rappel, LLaMA (7B, 13B, 65B) est le compétiteur de OpenAI open-source (et "piraté" mis à disposition sur des torrents) de Facebook. Le seul problème, c'est que si on s'attend à avoir des réponses à la ChatGPT, même avec le + petit modèle LLaMA de 7B de paramètres, on sera déçu. Arrive donc Alpaca développé par des gens de Stanford, qui ont adapté ("fine tuned" en Anglish) LLaMA pour donner des réponses similaires à chatGPT, et ce même avec le + petit modèle de 7B de paramètres ! Un seul lien à retenir: https://github.com/antimatter15/alpaca.cpp

2 - Le prompt engineering (ou l'IA intégré dans une boucle "for" :)). Mais pour être plus précis, le "ReAct". Idée étudiée il y a déjà un moment, l'idée c'est de faire intéragir chatGPT (ou Alpaca :cool:) avec des outils (ou base de données, d'où l'idée de LLaMA ou Alpaca, on ne dévoile pas sa propre DB à OpenAI) externes tels que Wikipedia, ou une calculette, puis de "feed" le résultat de cette recherche dans chatGPT; ce processus va être ré-itéré jusqu'à ce qu'il soit satisfait de la réponse finale. ChatGPT va donc beaucoup moins halluciner qu'à l'habitude, même pour des questions de math/stats/logiques, pour autant qu'on lui donne accès aux bons outils. ;)
Donc ReAct = Reasoning and Acting, et on commence à comprendre rapidement que si on donne chatGPT accès à d'autres outils qu'une API Wikipedia et une calculette, on peut obtenir des résultats saisissants. Voilà une liste de prompt engineering https://github.com/promptslab/Awesome-Prompt-Engineering et un exemple en image de "ReAct" entrain d'itérer (Re = Thought; Act = Action).
1679133113876.png

(source: Simon Willison)

3 - Notre propre Bing. Je vais insister sur un des liens (dispo sur la liste de prompt engineering), que j'utilise, https://langchain.readthedocs.io/en/latest/index.html
"Bing" n'est rien d'autres que chatGPT relié à un moteur de recherche en utilisant un outil comme "langchain". Sauf que ça n'aurait aucun intérêt de développer en local ce que Bing sait déjà très bien faire.. mais comme vous vous en doutez, on va aller plus loin en intégrant nos propres outils.. :cool:

Je dévoile pas mon code source (heh) mais pour en apprendre plus sur ReAct ou la liaison entre chatGPT et nos propres outils: https://interconnected.org/home/2023/03/16/singularity
Pour comprendre à quel point le prompt engineering est "facile" d'accès sans même utiliser "langchain", il donne un lien github qui explique comment lier chatGPT à son propre browser https://github.com/nat/natbot/blob/main/natbot.py en 100 lignes de code.
 
Dernière édition:

Liandoran

Redeemer and Destroyer
J'ai peut être mal compris mais je ne vois pas en quoi tu expliques pourquoi c'est un plus pour ton taf . Et surtout pour moi qui vient d'un environnement où tout doit être contrôlé, validé, cadré, ça a l'air ultra freestyle de ton côté ;)
 
  • Haha
Les réactions: [Clad]
1er
OP
Anewone

Anewone

Elite
J'ai peut être mal compris mais je ne vois pas en quoi tu expliques pourquoi c'est un plus pour ton taf . Et surtout pour moi qui vient d'un environnement où tout doit être contrôlé, validé, cadré, ça a l'air ultra freestyle de ton côté ;)
Ca me paraît évident que mon expérience n'est pas généralisable, je cherchais surtout à montrer une manière plus efficace d'utiliser un LLM, certains y verront une opportunité, d'autres non.
 

cyriak

Turn on - Tune in - Drop out
L'intelligence (dans sa généralité) c'est acquérir de nouveaux skills selon les situations, et chatGPT n'en est pas capable. L'intellect ne se mesure pas avec un examen. Les tests de QI ne testent que ta capacité à passer ces mêmes tests.
D"où mon interrogation, j'suis déjà persuadé que ces test ne sont bon qu'a savoir si on est bon a passer ces test et rien d'autre, c'est quoi l'intérêt d'entrainer des IA a faire 100% à ces test pour les comparer a des être humain après....
 
1er
OP
Anewone

Anewone

Elite
D"où mon interrogation, j'suis déjà persuadé que ces test ne sont bon qu'a savoir si on est bon a passer ces test et rien d'autre, c'est quoi l'intérêt d'entrainer des IA a faire 100% à ces test pour les comparer a des être humain après....
Marketing je pense (no joke), mais ils utilisent d'autres tests plus adaptés pour évaluer leur modèle https://openai.com/research/gpt-4
 

fastyy

Elite
Je vais partager ce que j'ai déjà moi même implémenter pour mon taff depuis quelques semaines, et les dernières MAJ que je trouve intéressantes et que je vais/ai déjà exploité(r).

...
En tout cas, cela semble super intéressant... mais je n'ai RIEN compris :)
Est ce que l'on peut demander à tes outils de réitérer sur ton texte pour le traduire dans un français plus courant ? :):)
 
1er
OP
Anewone

Anewone

Elite
En tout cas, cela semble super intéressant... mais je n'ai RIEN compris :)
Est ce que l'on peut demander à tes outils de réitérer sur ton texte pour le traduire dans un français plus courant ? :):)
Ah ! L'idée c'est de forcer GPT (via leur API) à effectuer des calls API avant de te donner une réponse finale. Par exemple, si tu utilises chatGPT pour générer du code python, tu demandes ici la même chose sauf qu'il va être "forcé" de faire un appel à ton interpéteur Python pour vérifier si son code s'exécute correctement, si non, il réitère, mutatis mutandis.

Attention que si tu relies GPT (ou un autre LLM tels que LLaMA) à ton propre interpréteur, il peut décider de os.system("rm -rf/") sans que tu comprennes pourquoi :D Il existe des alternatives qui te permettent d'éviter ce genre de désagrément mais c'est toujours un work-in-progress.

J'imagine que tu peux extrapoler sur les autres applications que tu pourrais relier de la même manière, personnellement j'en ai 4 qui fonctionnent à l'unisson etça le fait halluciner beaucoup moins qu'avant.

Concernant LLaMA et Alpaca, c'est pour avoir ton propre "chatGPT" en local, et au lieu d'utiliser ton GPU pour le faire tourner, un génie (je ne vois pas d'autres termes) l'a implémenté sous c++ en une nuit donc ça tourne sur ton CPU, pour autant que tu aies au moins 8 Gb d'espace disque et 4 Gb de ram pour le + petit modèle (7B de paramètres). Si OpenAI est MacOS, LLaMA est Linux, faut que tu changes les paramètres du modèle par toi même etc etc, sinon il va dire de la merde, par exemple en laissant tout par défaut, le + petit modèle output:
1679316744996.png


L'avantage c'est que ce chatGPT local n'a pas de safeguards (donc aucun "biais" > par contre il peut lâcher des saloperies donc attention aux plus fragiles :D), qu'il a tourné sur des données libres de droit, et que toutes les données / requêtes que tu lui INPUT ne serviront pas à alimenter le modèle d'OpenAI..

N.B: Je suis POUR la régulation des AI, mais j'aime pas partager mes bases de données ou mes codes sources, même si c'est "anonymisé".
 
Dernière édition:

fastyy

Elite
plus clair merci ;)

Mais effectivement, cela peut être risky par rapport à ce que tu lui peux lui demander de faire et des commandes qu'il pourrait te jouer.
Je préfère encore lire moi même, et demander une correction.

Car dans le cadre de dev, le problème n'est pas tellement de voir si ce qu'il donne est correct. 90% du temps, c'est correct... enfin ce sont des commandes qui existent.
Le problème est qu'il ne fait pas forcément EXACTEMENT ce que tu lui as demandé de faire et certaines ne peuvent pas être testée 2 fois.
 

head

Elite
Voilà, en 4 réponses j'ai réussi à me faire AI-Zoned :D

2023-03-20 14_07_41-Bing AI - Recherche et 1 page supplémentaire - Personnel – Microsoft​ Edge.png
 
1er
OP
Anewone

Anewone

Elite
plus clair merci ;)

Mais effectivement, cela peut être risky par rapport à ce que tu lui peux lui demander de faire et des commandes qu'il pourrait te jouer.
Je préfère encore lire moi même, et demander une correction.

Car dans le cadre de dev, le problème n'est pas tellement de voir si ce qu'il donne est correct. 90% du temps, c'est correct... enfin ce sont des commandes qui existent.
Le problème est qu'il ne fait pas forcément EXACTEMENT ce que tu lui as demandé de faire et certaines ne peuvent pas être testée 2 fois.
Je pense en effet que c'est surtout utile pour ceux en data sciences, data engineering, etc. Ou pour ceux dans le design, par exemple:
 

ReGGiO

Elite
Ah ! L'idée c'est de forcer GPT (via leur API) à effectuer des calls API avant de te donner une réponse finale. Par exemple, si tu utilises chatGPT pour générer du code python, tu demandes ici la même chose sauf qu'il va être "forcé" de faire un appel à ton interpéteur Python pour vérifier si son code s'exécute correctement, si non, il réitère, mutatis mutandis.

Attention que si tu relies GPT (ou un autre LLM tels que LLaMA) à ton propre interpréteur, il peut décider de os.system("rm -rf/") sans que tu comprennes pourquoi :D Il existe des alternatives qui te permettent d'éviter ce genre de désagrément mais c'est toujours un work-in-progress.

J'imagine que tu peux extrapoler sur les autres applications que tu pourrais relier de la même manière, personnellement j'en ai 4 qui fonctionnent à l'unisson etça le fait halluciner beaucoup moins qu'avant.

Concernant LLaMA et Alpaca, c'est pour avoir ton propre "chatGPT" en local, et au lieu d'utiliser ton GPU pour le faire tourner, un génie (je ne vois pas d'autres termes) l'a implémenté sous c++ en une nuit donc ça tourne sur ton CPU, pour autant que tu aies au moins 8 Gb d'espace disque et 4 Gb de ram pour le + petit modèle (7B de paramètres). Si OpenAI est MacOS, LLaMA est Linux, faut que tu changes les paramètres du modèle par toi même etc etc, sinon il va dire de la merde, par exemple en laissant tout par défaut, le + petit modèle output:
Voir la pièce jointe 98019

L'avantage c'est que ce chatGPT local n'a pas de safeguards (donc aucun "biais" > par contre il peut lâcher des saloperies donc attention aux plus fragiles :D), qu'il a tourné sur des données libres de droit, et que toutes les données / requêtes que tu lui INPUT ne serviront pas à alimenter le modèle d'OpenAI..

N.B: Je suis POUR la régulation des AI, mais j'aime pas partager mes bases de données ou mes codes sources, même si c'est "anonymisé".
mutatis mutandis :love:
 

head

Elite
WhatsApp Image 2023-03-24 à 10.55.13.jpg


Donc l'intégration de ChatGPT dans Bing se fait dans la continuité ... toujours trois guerres en retard :D
 

Trigidon

Elite
Concernant Bing et son IA de génération d'image, vous savez ce qu'il en est au niveau des droits d'utilisation ? En cherchant un peu, je trouve ça :

Utilisation des créations.
Sous réserve de votre respect du présent Contrat, du Contrat de services Microsoft et de notre Politique de contenu, vous pouvez utiliser les Créations en dehors des Services en ligne à toute fin légale, personnelle et non commerciale.
Mais je trouve que ça manque un peu de précision (et en plus j'y connais rien en droit). Est-ce que par "non commerciale", ça sous-entend juste qu'on ne peut pas les vendre directement, ou est-ce que ça concernerait par exemple même le fait de mettre les images générées dans une app qui génère de l'argent (par exemple via des pubs, ou un achat de l'app), pour une quelconque utilisation ?

Je prends un exemple simple : si demain je développe une app avec mes images préférées générées via Bing, et qu'elle me rapporte un peu de sous car il y a des publicités dedans, ça devient une utilisation commerciale ?
 

cyriak

Turn on - Tune in - Drop out
Voir la pièce jointe 98124

Donc l'intégration de ChatGPT dans Bing se fait dans la continuité ... toujours trois guerres en retard :D
En même temps 3 poubelles qui crament pendant une manif, pas vraiment ce que j’appellerai une émeute, à part si j'etait macron....
 

pyngu

La vodka du diable
En même temps 3 poubelles qui crament pendant une manif, pas vraiment ce que j’appellerai une émeute, à part si j'etait macron....
Va dire ça à Bordeaux.
 

pyngu

La vodka du diable
SEULEMENT 34 MÉTIERS ÉCHAPPERONT AU RAZ-DE-MARÉE CHATGPT
Et ses conclusions ne sont pas vraiment réjouissantes. D’après leurs recherches, les auteurs de l’étude estiment que 80 % de la masse salariale américaine sera impactée de près ou de loin par ChatGPT. De plus, 19 % des métiers seront impactés à hauteur de 50 % par l’intelligence artificielle, sans forcément être remplacés entièrement. Certains métiers devraient toutefois être épargnés par la révolution à venir, mais ils sont bien peu nombreux. OpenAI en recense précisément 34. Les voici :

Abatteurs et emballeurs de viande
Aides-couvreurs
Aides-maçons, maçons de blocs, tailleurs de pierre, carreleurs et marbriers
Aides-menuisiers
Aides-peintres, poseurs de papier, plâtriers et stucateurs
Aides-plombiers, plombiers, tuyauteurs et monteurs d’appareils de chauffage
Athlètes et compétiteurs sportifs
Boulonneurs de toits dans l’industrie minière
Coiffeurs
Conducteurs d’engins de pavage, de surfaçage et de damage
Coupeurs et élagueurs à la main
Cuisiniers en restauration rapide
Découpeurs et régleurs de viande, de volaille et de poisson
Fabricants de moules et de noyaux de fonderie
Installateurs et réparateurs de lignes électriques
Installateurs et réparateurs de vitres de véhicules
Plongeurs
Maçons en ciment et finisseurs de béton
Mécaniciens d’autobus et de camions et spécialistes des moteurs diesel
Mécaniciens de motocyclettes
Opérateurs d’engins de battage
Opérateurs d'extracteurs de pétrole et gaz
Opérateurs de derrick, pétrole et gaz
Opérateurs de machines d’excavation et de chargement et d’engins traînants, exploitation minière à ciel ouvert
Opérateurs de matériel agricole
Opérateurs sur bateau
Opérateurs/opératrices de matériel de pose et d’entretien de voies ferrées
Pompistes de têtes de puits
Poseurs de revêtements de sol, à l’exception des tapis, du bois et des carreaux durs
Réparateurs de matériaux réfractaires, sauf briqueteurs-maçons
Réparateurs et changeurs de pneus
Serveurs, employés de restaurants et aides-barmans
Tailleurs de pierre
Verseurs et rouleurs de métaux

Source
 

Skarbone

Le méchant Ω
Cuisinier en restauration rapide ?
 

Mr.Marcel

☢️☢️💩☢️☢️
Ça semble vraiment excessif comme liste, à moins de considérer les filles de joie comme des athlètes de haut niveau.
 
Haut