Citat:
bojan_bozovic:
@Ivan Dimkovic
Nema to uopste veze dok je gaming u rukama Intela i x86, ukljucujuci tu Xbox One i PlayStation 4. U uporedjenju sa tim, Apple kompjuteri su beznacajno trziste. Jos kako su odlucili da ne podrzavaju nVidia graficke kartice na novom OSX Mojave, pre ce Apple da propadne nego Intel i x86.
IMHO, console gaming je izuzetno niskoprofitan market koji je zapravo i stetan za firmu sa malo resursa, zbog toga je jedino i preostao AMD-u zato sto nisu imali ni za sta bolje da se uhvate tada.
Raspitaj se koliko kostaju konzolni SoC SKU-uovi i koliko su smesne margine na njima, a zahtevaju izuzetno gadan R&D zato sto su tesko kastomizovani za vendora (iako dele x86 arhitekturu, cipovi u XBox-Oneu i PS4 su razlicit dizajn koji je zahtevao da na tome rade razliciti timovi i trose R&D vreme koje su mogli potrositi na nesto daleko profitabilnije, ali tada AMD nije imao izbora).
Znaci ako si mali (AMD npr.) moras da angazujes svoj najbolji tanlenat da se za*bava sa pravljenjem nekog SoC-a koji ce se valjati za $115-$120 i na kome ces biti dobar $15-tak $. I to sve puta dva posto MSFT i Sony ne dele dizajn. Za to vreme, tvoj konkurent angazuje njihove R&D timove za razvoj procesora koji mogu da valjaju od $1000 do $13000+ i obicno vecina zavrsi na onoj drugoj strani (ok, podeliti sa 2 za enterprise popust, ali opet)...
Fala bogu pa se AMD polako izvlaci iz tog s*anja i konacno mogu da rade na procesorima koji su bitni tj. na kojima mogu da zarade ozbiljne pare, a to je EPYC.
Takodje, CPU deo konzole je nebitan. Ta x86 jezgra koja su danas u MS/Sony konzolama mogu biti zamenjena dovoljno jakim ARM jezgrima kojih ce sigurno biti u sledecih par godina. Glavna stvar u konzoli je jaka grafika i nemilosrdno obaranje cene integrisanog SoC-a - a to je igra koja ne ide na ruku ni AMD-u (koji ce, sada, valjda konacno imati i vise izbora da se bavi profitabilnijim biznisima) a pogotovu ne Intel-u cije margine su visestruko vece nego sitne z*bancije kao sto su konzolni SoC-evi.
To jednostavno nije njihov biznis i ako bi morao da postane iz nekog razloga, Intel-ova vrednost bi bukvalno bila desetkovana. Intel nije proizvodjac jeftinog commodity SoC hardvera ili inzenjerska kuca za pravljenje specijalnih resenja za 2 igraca na trzistu (MS/Sony) vec firma koja bukvalno zivi na visokim marginama koje izvlaci milijarde $ iz enterprise (datacenter) i mobility (laptop) / high-end desktop trzista. Sve ostalo je >sum< za Intel, toliko su veliki i toliko su im investiori gladni zato sto je sve to vec odavno uracunato u cenu Intel akcija.
Znas kako je, kad si na vrhu ocekivanja su prilicno visoka i mozes da ides samo na dole ako ti nestane opcija.
Intelova ahilova peta bi bio upravo taj momenat da vise ne budu toliko dobri da mogu da komanduju fantasticne margine.
Mislim, prodavati parce silicijuma za $10-13K je nesto sto mogu Intel, NVIDIA (za GPU-ove) i IBM (za Power). Ako zanemarimo IBM, Intel i NVIDIA to mogu da rade zato sto i dalje (bar do AMD Rome-a sto se CPU-ova tice, za HPC GPU stranu nemam pojma koliko je AMD konkurentan NVIDIA-i) imaju vrlo jake proizvode ispred drugih i ogromnu mrezu developer/enterprise podrske kljucnim OEM-ima koja im prakticno otvara vrata automatski u nove projekte. Ista stvar i u lukrativnom high-end laptop/desktop biznisu: to su velike firme sa velikim timovima koji bukvalno pomazu OEM-ima na sve nacine da lansiraju proizvod, od referentnog dizajna preko direktne dev. podrske.
Ali takve stvari nisu zauvek. I IBM je isto bio i keva i cale za computing, sa sve podrskom, brendom, tehnologijom, a onda su polako dosli novi igraci i spustili ih na nivo "also ran-a".
Da li ce se to desiti Intelu?
Videcemo sta imaju i koliko su pametni. Ja mislim da na duze staze imaju problem zato sto, koliko god im je tehnologija dobra, polako se smanjuje jaz izmedju "najboljeg" i "sledeceg najboljeg" resenja. Jos ako se Intel/AMD vozu pridruzi baraz ARM DC vendora... margine ima da padnu kao sekira.
IMHO, jedini izlaz iz cele te price je razvoj novih stvari tipa gusto pakovanje jezgara i mnogo bolji interconnect, bliska memorija (ubijanje latencije) i sl. stvari koje ce bar enterprise segmentu moci da daju krila u buducnosti. NVIDIA mozda ubode isto jackpot sa real-time raytracingom koji mozda bude znacio korenitu promenu u tome kako se renderuju igrice, sto ce im dati isto nekoliko godina prostora za razvoj.
Deep learning mislim da su izmuzli, svi ce imati "tensor"-like jedinice u buducnosti tako da to samo po sebi ne moze biti diferencijator.
DigiCortex (ex. SpikeFun) - Cortical Neural Network Simulator:
http://www.digicortex.net/node/1 Videos:
http://www.digicortex.net/node/17 Gallery:
http://www.digicortex.net/node/25
PowerMonkey - Redyce CPU Power Waste and gain performance! -
https://github.com/psyq321/PowerMonkey