A nagy nyelvi modellek korlátai Miért nem helyettesíthetők az emberek az LLM-ekkel?

Saved in:
Bibliographic Details
Main Author: Madlena Eszter
Other Authors: Bánhalmi Dr. Árpád
Format: Thesis
Kulcsszavak:gépi tanulás
mesterséges intelligencia
nagy nyelvi modellek
természetes nyelvi feldolgozás
visszacsatolt neurális hálózat
Online Access:http://dolgozattar.uni-bge.hu/53821
Description
Abstract:A dolgozatban a nagy nyelvi modelleknek (Large Language Models - LLM) kialakulásának háttere kerül ismertetésre. Az egyszerűbb neurális hálózatoktól eljutunk az LLM-ekhez, miközben bemutatásra kerül a mögöttük rejlő architektúrák a működése. Ezzel árnyaltabb képet kapunk arról, hogy az, amit emberinek érzékelünk, az valójában bonyolult statisztikai függvények működésének eredménye. A nagy nyelvi modellek azokból a szövegekből tanulnak, amelyeket e modellek létrehozói összeválogatnak, és ez teszi lehetővé az LLM-ek számára, hogy nagy valószínűséggel helyes természetes nyelvi kijelentéseket generáljanak, alkalmazkodjanak különböző írási stílusokhoz, területekhez; de nem rendelkeznek valódi megértéssel, tudatossággal vagy teljesen eredeti ötletek kialakításának a képességével. Különböző aspektusok vizsgálatával feltárásra kerül a mögöttük rejlő struktúra és a dolgozat keretein belül igazolást nyert az az állítás, hogy valójában a határait, mi emberek szabjuk meg, és nem öntudatra ébredésről van szó, hanem gondosan finomhangolt matematikai modellekről. A dolgozat végén egy saját fejlesztésű visszacsatolt neuronháló (Recurrent Neural Network – RNN) bemutatására kerül sor, ami kísérleti alapként szolgál annak megértéséhez, hogy lényegében hogyan működnek a szöveggeneráló mechanizmusok. A bemutatott RNN konkrét példákon keresztül demonstrálja és világosan alátámasztja a dolgozat mondanivalóját.