A párhuzam nyilvánvaló...ChatGPT-vel kapcsolatban szerintem sokan tényleg valami olyasmire gondolnak, hogy itt a skynet és beindul a szingularitás.
Valóságban egy dialógus ML szoftver. https://openai.com/blog/chatgpt/
"We trained this model using Reinforcement Learning from Human Feedback (RLHF), using the same methods as InstructGPT, but with slight differences in the data collection setup. We trained an initial model using supervised fine-tuning: human AI trainers provided conversations in which they played both sides—the user and an AI assistant. We gave the trainers access to model-written suggestions to help them compose their responses. We mixed this new dialogue dataset with the InstructGPT dataset, which we transformed into a dialogue format."
Szóval egy csapat AI trainer figyelte az adatokat, kiképezte az AI-t a dialógus beszélgetésre és ezekben a beszélgetés képzések alatt felváltva cseréltek szerepet a kérdező-válaszol tekintetében. Szóval a szoftver nem érti meg valójában, hogy mit kérdezel, csak utánozza azokat a beszélgetéseket, melyeket az AI és az oktatói korábban vele folytattak. Kapott a szoftver egy rakás dialógus dataset-et, majd összekeverték ezt InstructGPT datasettel és átalakították egy dialógus formátumra.
"To create a reward model for reinforcement learning, we needed to collect comparison data, which consisted of two or more model responses ranked by quality. To collect this data, we took conversations that AI trainers had with the chatbot. We randomly selected a model-written message, sampled several alternative completions, and had AI trainers rank them. Using these reward models, we can fine-tune the model using Proximal Policy Optimization. We performed several iterations of this process."
Az ML igazából egy minta felésmerés, nincs mögötte valós gondolat vagy interakció. Olyan mintát keres a szoftver ami, kb. megfelelő minta lenne és ahhoz próbálja illeszteni.
Ő Az Open AI egyik dolgozója, aki írja, hogy mennyire messze vagyunk az általános mesterséges intelligenciától. Rohadt messze és ebbe az irányba nem is igazán lehet tovább menni.
<blockquote class="twitter-tweet"><p lang="en" dir="ltr">interesting to me how many of the ChatGPT takes are either "this is AGI" (obviously not close, lol) or "this approach can't really go that much further".<br><br>trust the exponential. flat looking backwards, vertical looking forwards.</p>— Sam Altman (@sama) <a href=" ">December 3, 2022</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>
Az adathalom amiből képezték 1 vagy 2 éves, elavult, nem tud semmilyen előre jelző válaszokat, következtetéseket adni. Továbbá direkt úgy állították, hogy ahol még rövid válasz is elég lenne, ott is hosszan válaszoljon, kicsit wikipédia szerűen, amitől okos AI-nak tűnhet és mindenképp válaszol valamit, attól függetlenül, hogy tudja a választ e vagy nem.
Limitations
- ChatGPT sometimes writes plausible-sounding but incorrect or nonsensical answers. Fixing this issue is challenging, as: (1) during RL training, there’s currently no source of truth; (2) training the model to be more cautious causes it to decline questions that it can answer correctly; and (3) supervised training misleads the model because the ideal answer depends on what the model knows, rather than what the human demonstrator knows.
- ChatGPT is sensitive to tweaks to the input phrasing or attempting the same prompt multiple times. For example, given one phrasing of a question, the model can claim to not know the answer, but given a slight rephrase, can answer correctly.
- The model is often excessively verbose and overuses certain phrases, such as restating that it’s a language model trained by OpenAI. These issues arise from biases in the training data (trainers prefer longer answers that look more comprehensive) and well-known over-optimization issues.12
- Ideally, the model would ask clarifying questions when the user provided an ambiguous query. Instead, our current models usually guess what the user intended.
- While we’ve made efforts to make the model refuse inappropriate requests, it will sometimes respond to harmful instructions or exhibit biased behavior. We’re using the Moderation API to warn or block certain types of unsafe content, but we expect it to have some false negatives and positives for now. We’re eager to collect user feedback to aid our ongoing work to improve this system.
A hülyeséggel etetett AI hülyeségeket beszél.
A médiatáppal etetett "fogyasztó" ugyanazt hányja vissza....