A nagy nyelvi modellek korlátai Miért nem helyettesíthetők az emberek az LLM-ekkel?
Saved in:
Main Author: | |
---|---|
Other Authors: | |
Format: | Thesis |
Kulcsszavak: | gépi tanulás mesterséges intelligencia nagy nyelvi modellek természetes nyelvi feldolgozás visszacsatolt neurális hálózat |
Online Access: | http://dolgozattar.uni-bge.hu/53821 |
Abstract: | A dolgozatban a nagy nyelvi modelleknek (Large Language Models - LLM) kialakulásának háttere kerül ismertetésre. Az egyszerűbb neurális hálózatoktól eljutunk az LLM-ekhez, miközben bemutatásra kerül a mögöttük rejlő architektúrák a működése. Ezzel árnyaltabb képet kapunk arról, hogy az, amit emberinek érzékelünk, az valójában bonyolult statisztikai függvények működésének eredménye. A nagy nyelvi modellek azokból a szövegekből tanulnak, amelyeket e modellek létrehozói összeválogatnak, és ez teszi lehetővé az LLM-ek számára, hogy nagy valószínűséggel helyes természetes nyelvi kijelentéseket generáljanak, alkalmazkodjanak különböző írási stílusokhoz, területekhez; de nem rendelkeznek valódi megértéssel, tudatossággal vagy teljesen eredeti ötletek kialakításának a képességével. Különböző aspektusok vizsgálatával feltárásra kerül a mögöttük rejlő struktúra és a dolgozat keretein belül igazolást nyert az az állítás, hogy valójában a határait, mi emberek szabjuk meg, és nem öntudatra ébredésről van szó, hanem gondosan finomhangolt matematikai modellekről. A dolgozat végén egy saját fejlesztésű visszacsatolt neuronháló (Recurrent Neural Network – RNN) bemutatására kerül sor, ami kísérleti alapként szolgál annak megértéséhez, hogy lényegében hogyan működnek a szöveggeneráló mechanizmusok. A bemutatott RNN konkrét példákon keresztül demonstrálja és világosan alátámasztja a dolgozat mondanivalóját. |
---|