Citiraj:
Autor tomek@vz
Nije isto - svjestan si toga. Ne sjecam se da je nastajanje interneta kakvog poznajemo imalo takve negativne popratne implikacije kao sto to ima trenutno sva ta fama oko AI-a. Na primjer: guralo se godinama manja potrosnja struje i opcenito manji utjecaj na okolis da bi AI probio doslovce kroz noc sve sto je dosad po tom pitanju napravljeno po pitanju potrosnje (vode i struje na primjer). A onda jos dolazi i tema sa jebenom nestasicom cipova koja , ako se oduzi kako se predvida - bi mogla imati puno gore implikacije, barem za segment consumer trzista elektronikom (i ne mislim samo na IT sektor).
|
Problem je sto je cijeli AI baziran na neuronskim mrezama koje jedino sto rade je number-crunching... Zato su njima GPUovi dusu dali jer imaju brdo ALUova... Pravi problem su LLMovi jer su oni ti koji trose brdo resursa... Svi ostali tipovi AI trose drasticno manje energije od LLMova... Tako da, ako nesto treba optimizirati, to su LLMovi... Postoje vec neke naznake da se ide u tom smjeru, recimo, mene je odusevio HRM koji je na bazi 1000 uzoraka kod treniranja postigao prilicno zavidan rezultat na onom ARC-AGI testu... Imas ovdje ukratko objasnjeno sto i kako radi...
https://www.linkedin.com/posts/leadg...23085824-2QVI/
I sad, ako se uspiju razviti modeli koji ce biti energetski efikasni, onda cemo dobiti nase chipove, memorije i sve ostalo natrag...
Iako, mene ovo sada razdoblje veseli jer ce mozda NAPOKON programeri (ili AI) poceti optimizirati je*eni kod! A ne da ispadne da gledam kako mi iscrtava prozore po ekranu na Win11, sto sam zadnji put vidio valjda na Win 3.1...