Pa ovo sa drvom i nije baš nešto filozofski, ako znamo što je zvuk lako ćemo riješiti taj problem

Što se tiče misli i govora koji su "hrpa neurona koji se pale i gase" lol, to osim što je naravno krivo je i primjer žestokog redukcionizma koji čak i da je točan nam ništa ne donosi. Kao da je kažem da je rendula samo hrpa atoma koji se eto spajaju kemijskim vezama i da netko kopira rendulu samo treba tako to sve skupa naslagati vamo tamo i eto nam rendule

Drugi problem je što sa ovim "upale ili ne" insinuiraš da su neuroni nekakvi električki sklopovi koji mogu zauzeti 2 stanja slično kao tranzistor u računalu, što opet naravno nije točno.
Treba se okaniti takvih metafora, kako se tehnologija pojavljivala već smo imali i hidrauličke teorije mozga, pa telefonske

pa električne, sad i računalne. O mozgu ima sve više podataka, ali sve manje znanja. Znanstvena teorija svijesti ne postoji (u principu se znanost teško dogovara oko definicije toga što je uopće mozak, a gdje je tek svijest) a danas nismo u stanju objasniti paljenje neurona kod nekakvog crva koji ih ima beznačajno u usporedbi sa čovjekom.
Što se tiče LLM-a, čini mi se da je calypso u pravu. Strogo gledajući, nitko (relevantan) niti ne tvrdi da je LLM išta više od generatora teksta koji na upite proizvodi statistički značajne outpute. Članke za portale tipa index i sl. ne brojim jer oni uglavnom prenose marketinške poruke, ništa bitno. To naravno ne znači da LLM ne može biti vrlo koristan, naprotiv. Ali to je softver čijih ograničenja treba biti svjestan i treba ga koristiti sa time na umu. Dakle, ne preuzimati te outpute ne-kritički i očekivati da su automatski točni, što nažalost velik broj ljudi upravo tako shvaća a zato što su kupili priču da je tu riječ o nekakvoj inteligenciji. LLM ima inteligenciju 0 i to treba uvijek imati na umu, on ne zna ništa.
P.S. sjećam se i ja runfa sa newsa
