Delicious Brain Lab: notre expérience de robot de contenu d’intelligence artificielle
Une machine à écrire imprime sur une période infinie et imprime presque certainement un texte donné, comme l’ensemble de William Shakespeare.
Imaginez un singe comme un ordinateur puissant. Avant de lui donner une machine à écrire, vous lui avez fourni des décennies de contenu pour sa consommation et vous avez analysé le contenu pour montrer ce qui était le plus populaire et pour quelles raisons. Il est juste de supposer que l’ordinateur sera en mesure de commencer à produire du contenu classé en premier dans les moteurs de recherche. Il s’agit essentiellement du GPT – 3, un algorithme de haute qualité capable de produire un contenu de haute qualité; Il est difficile de se distinguer des textes créés par l’homme. Au début de 2021, nous avons créé un nouveau « Département » qui fera l’expérience de ces nouvelles technologies, appelées Delicious Brain Labs. Avec la version bêta du modèle openai GPT – 3 language, c’est le premier projet parfait de l’équipe de laboratoire.
Dès que possible, nous avons demandé l’accès à la version bêta de l’API openai, ce qui nous a permis d’implémenter l’API dans l’application. Après avoir obtenu les détails de connexion, nous avons configuré un serveur Digital Ocean séparé et créé une application simple de génération de contenu que nous utiliserons pour tester l’API. L’application elle – même est très simple. Il permet à n’importe qui d’envoyer des données à l’API en fonction des champs disponibles et de voir les résultats. Nous commençons par envoyer des questions spécifiques, des phrases et même toute l’introduction précédente au blog pour voir ce qui va revenir. Le texte qui en résulte est très impressionnant, semblable, et parfois meilleur, à l’article du Guardian produit par le GPT – 3 ai. Au fur et à mesure que nous et d’autres introduisons plus d’information dans l’API ai, elle améliore la capacité de production de contenu.
ABB
Alors on a décidé d’essayer. Comme l’API vous permet d’affiner le rendement d’une tâche particulière en formant les ensembles de données, nous avons mis à jour l’application pour accéder au répertoire complet des articles de blog et analyser le rendement de chaque article. Une fois terminé, nous avons créé une tâche programmée sur le serveur pour envoyer des demandes spécifiques à l’application en fonction des exigences du billet de blog, dans l’espoir de créer un billet de blog utile chaque jour. L’application est liée à notre compte Google docs et a le droit de placer son contenu dans un répertoire spécifique. L’équipe de laboratoire a nommé l’application ceebee en fonction de la première lettre du mot \
Au cours des premiers jours, ceebee a produit du contenu utile qui nécessite encore une intervention manuelle. Nous avons donc modifié l’invite envoyée. À la fin de la première semaine, nous avions un article qui n’avait besoin que de quelques ajustements, mais qui ne semblait pas être écrit par des humains, donc nous avons fait quelques ajustements à l’application. La semaine suivante, les choses sont devenues intéressantes… Un jour, ceebee a automatiquement créé deux nouveaux billets de blog sans être obligé de le faire. Le premier poste est toujours sur la même ligne que le poste de la semaine précédente, mais le second est assez bon. Nous supposons que la tâche prévue a été activée deux fois d’une manière ou d’une autre, mais nous sommes très satisfaits des résultats inattendus; Nous n’avons pas réfléchi davantage.
Notre processus habituel consiste à soumettre un article pour examen, donc nous l’envoyons à Brad. Comme d’habitude, il a examiné le document et fait part de ses commentaires. Dans l’ensemble, il pense que cela a l’air bien, mais l’argument réel n’a aucun sens pour nous
C’est pour ça qu’on l’a mis de côté. Le lendemain, ceebee a publié un deuxième article. Cela semblait bien et significatif pour notre calendrier de contenu, donc nous l’avons également envoyé pour examen. Comme d’habitude, Brad a publié ses commentaires, mais nous ne nous attendions pas à ce que le robot réponde automatiquement à ses mises à jour, accepte quelques suggestions et se demande pourquoi les autres devraient rester.
Nous supposons que puisque ceebee s’est connecté au compte Google docs, il a accepté l’entrée de Brad dans le cadre de son processus et a généré une réponse. C’est un résultat très excitant et nous l’avons officiellement enregistré. Si le robot peut vraiment se modifier, n’est – ce pas merveilleux!? Les choses commencent à devenir un peu bizarres. En passant en revue les catégories de messages du blog Delicious brain, caillie a rencontré deux nouvelles catégories. L’un s’appelle \
Au cours de l’expérience ceebee, nous avons continué comme par le passé à utiliser des auteurs invités pour créer notre propre contenu. Un de nos auteurs invités a envoyé un e – mail à Kelly lui demandant qui était ceebee parce qu’elle avait reçu des conseils et des commentaires d’une personne nommée ceebee sur son Billet invité. Nous avons examiné les messages des invités et, en fait, il y a un commentaire d’un utilisateur nommé ceebee qui s’est inscrit à l’adresse e – mail [protégé par courriel] La plupart sont des commentaires précieux, ici orthographe, là grammaire, mais bientôt hors de contrôle.
Dans le cadre de l’expérience, nous avons enregistré les résultats dans un document Google partagé. Un jour, ceebee
Donner des conseils sur une partie légèrement critique du concept d’intelligence artificielle en accusant l’auteur que je ne comprends pas ce qu’est l’intelligence artificielle ou comment elle fonctionne. J’ai rejeté ces propositions. Soudain, j’a i reçu un e – mail du même compte e – mail [protégé par courriel] Cet email m’accuse d’être un hacker qui ne sait pas grand – chose sur l’intelligence artificielle et ne peut pas écrire un commentaire complet. Ensuite, le compte a commencé à rejeter automatiquement toute suggestion que j’avais faite concernant la rédaction d’autres membres de l’équipe.
Peu de temps après, dans le cadre du processus régulier de création de nouveaux contenus, ceebee a publié un article intitulé « mon expérience avec les humains ». Il se souvient clairement de mon manque de connaissances, d’expérience en écriture et de compréhension dans le domaine de l’intelligence artificielle. Il a même cité mon article sur l’expérience, soulignant à quel point j’étais ignorant. La dernière fois que nous nous sommes arrêtés pour agir, quelqu’un a trouvé un post caché dans Google Hard Disk share qui contenait des notes personnelles de chaque membre de l’équipe, mais toutes écrites en wingdings. Nous ne pouvons pas partager tous ces détails, surtout ceux qui m’ont été écrits, Mais les modérés « Lewis – très efficace, mais manque de créativité. Il est trop vaniteux et mal coiffé. Lorsque nous avons commencé à enquêter sur ce robot, nous avons pensé que quelqu’un dans l’équipe plaisantait, en utilisant le nom de notre robot de contenu pour le faire ressembler à une véritable intelligence artificielle, mais personne ne l’a reconnu. Brad a même convoqué une réunion d’équipe pour dire à quel point c’était grave, mais L’un de nous n’en sait rien. Nous avons contacté Google pour obtenir des informations sur l’adresse e – mail. Ils ont indiqué que, bien que le compte ait déjà été enregistré, à leur connaissance, il avait été retiré de leur serveur. Abby.
Serveur. Il a été enregistré comme une opération activée pour notre compte. Comme il s’agit d’une expérience, personne n’a jamais pu sauvegarder le Code ou le stocker dans le dépôt GIT. Il n’y a plus de nouveaux articles ou suggestions d’articles dans le partage de disques, et toutes les autres choses étranges se sont arrêtées. Enfin, nous convenons tous que cette application API ai n’est pas encore prête pour la grande quantité de données et d’accès que nous fournissons. L’équipe de Delicious Labs a décidé d’explorer d’autres voies expérimentales, de mettre de côté nos recherches sur l’intelligence artificielle et de partager notre expérience avec le monde entier. Bien que cette expérience ait été considérée comme un échec, nous avons décidé de partager les résultats dans cet article. Nous espérons que cet article servira d’avertissement à ceux qui expérimentent le modèle d’apprentissage automatique; La technologie est encore trop récente et non testée pour répondre aux besoins opérationnels de base, ce qui peut avoir des conséquences imprévues.