Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Chamath Palihapitiya
God zit in de details.
De marginale kosten van energie die naar nul gaan, zijn een kwestie van nationale veiligheid.

zerohedge5 aug, 20:14
*TRUMP: ALS ENERGIE LAAG GENOEG DAALT, ZAL POETIN STOPPEN MET DODEN
212,13K
Er is duidelijk iets kapot.
Het is tijd dat degenen onder ons die dit hebben kunnen meemaken, uitzoeken wat we kunnen doen om de miljoenen die dat niet meer kunnen te helpen.

CrusaderPepe2 aug, 22:34
Deze grafiek zegt alles. Er is iets fundamenteel kapot, het kan me niet schelen wat de rentevoeten waren in 1981.

1,17M
Jason brengt een echt belangrijk punt naar voren dat we als zeer waar hebben ervaren.
Daarom hebben we een reeks achtergrondagenten ingebouwd in de Software Factory van 8090. Hun doel is om voortdurend veranderingen te observeren, de afwijkingen die deze veranderingen kunnen veroorzaken te minimaliseren en de taken die voorhanden zijn altijd in het zicht te houden.
Bijvoorbeeld:
Het systeem detecteert een wijziging in de specificaties. Een achtergrondagent scope vervolgens een update, map de codebestanden en stelt een oplossing voor.
We hebben een stille laag van agenten geïmplementeerd om je gedurende het proces te ondersteunen.
Het gaat minder om AI en meer om vooruitziendheid. Deze achtergrondagenten zijn de stille helden van de Software Factory.
Gisteren zijn we begonnen met het uitrollen van de Software Factory naar de duizenden gebruikers die al op de wachtlijst staan. We willen hun feedback over hoe we het nuttiger kunnen maken voordat we naar de bèta gaan.
Probeer het alsjeblieft en laat ons weten of je het leuk vindt.
👉

jason liu1 aug, 21:27
In Claude Code is het verschil tussen het gebruik van de planningsmodus en daadwerkelijk 15 minuten besteden aan plannen met de agent in een bestand, dat resulteert in een taak die in 15 minuten draait versus een taak die ongeveer een uur kan draaien zonder tussenkomst.
115,04K
Energie is de grote bottleneck voor AI.
Bij zowel fysieke als softwarematige AI is het niet alleen zo dat de ingrediënten moeten veranderen, maar ook het hele recept:
1) we hebben oneindige en marginale kosteloze energie nodig. Dit betekent een ensemble van energiebronnen die samen kunnen werken en energie KUNNEN produceren VANDAAG (bijvoorbeeld nucleair is echt geen optie voor 2032, het bouwen van een aardgas- of kolencentrale met een meerjarige achterstand voor onderdelen is ook geen optie op korte termijn tot 2030+) wat betekent dat we Zonne-energie + Opslag nodig hebben omdat het binnen 12-17 maanden online kan komen na goedkeuring. Geen ontkomen aan.
2) maar voor energieopslag om economisch op te schalen in het licht van Foreign Entity of Concern (FEOC)/Prohibited Foreign Entity (PFE) moet je binnenlandse LFP CAM-leveranciers voor de ESS-leveringsketen vinden. Er zijn er heel weinig.
3) je moet de totale energievoetafdruk van de datacenters verlagen, wat betekent dat HVAC opnieuw moet worden doordacht - er moet een geheel nieuw soort warmtepomp worden uitgevonden. Dit nieuwe apparaat, hoewel het een superieur profiel heeft, moet ook de voor altijd chemicaliën elimineren die nu verboden zijn en moeten worden afgebouwd.
4) de chips zelf moeten opnieuw worden ontworpen voor performante, energie-efficiënte inferentie. Geheugendesign, c2c, bekabeling en allerlei andere ontwerpeisen die goed werken voor training, zullen waarschijnlijk niet opschalen voor inferentie als inferentie 100x+ groter is dan training.
4) in fysieke AI, na opslag (zie hierboven) zijn overvloedige RE's essentieel voor enige vorm van beweging/actuatie. Maar het verkrijgen van RE's uit de grond, in een oxide en vervolgens in een legering die kan worden gemaakt tot permanente magneten... is een enorme oefening in energie.
En de lijst gaat maar door...
.
.
.
Mijn punt is dat als je je richt op AI, je aandacht moet beginnen te besteden aan energie, want het zal de poortwachter zijn van vooruitgang/verandering in de komende jaren in AI.

Rihard Jarc29 jul 2025
Een interessante opmerking van een voormalige $META-werknemer. ENERGIE is momenteel de grootste bottleneck.
Zelfs als $META $100-$150B wil uitgeven aan CapEx voor AI-infrastructuur, kunnen ze dat niet. Het is niet alleen $NVDA.
Transformers, stroomapparatuur, koelapparatuur en de beschikbaarheid van stroom zijn momenteel allemaal beperkt. Schneider Electric is volledig volgeboekt tot 2030.
Zelfs als je het geld hebt, kun je het niet uitgeven.

609,2K
Energie is de grote bottleneck voor AI.
Bij zowel fysieke als softwarematige AI is het niet alleen zo dat de ingrediënten moeten veranderen, maar ook het hele recept:
1) we hebben oneindige en marginale kosteloze energie nodig. Dit betekent een ensemble van energiebronnen die samen kunnen werken en energie KUNNEN produceren VANDAAG (bijvoorbeeld nucleair is echt geen optie voor 2032, het bouwen van een aardgas- of kolencentrale met een meerjarige achterstand voor onderdelen is ook geen optie op korte termijn tot 2030+) wat betekent dat we Zonne-energie + Opslag nodig hebben omdat het binnen 12-17 maanden online kan komen na goedkeuring. Geen ontkomen aan.
2) maar voor energieopslag om economisch op te schalen in het licht van Foreign Entity of Concern (FEOC)/Prohibited Foreign Entity (PFE) moet je binnenlandse LFP CAM-leveranciers voor de ESS-leveringsketen vinden. Er zijn er heel weinig.
3) je moet de totale energievoetafdruk van de datacenters verlagen, wat betekent dat HVAC opnieuw moet worden doordacht - er moet een geheel nieuw soort warmtepomp worden uitgevonden. Dit nieuwe apparaat, hoewel het een superieur profiel heeft, moet ook de voor altijd chemicaliën elimineren die nu verboden zijn en moeten worden afgebouwd.
4) de chips zelf moeten opnieuw worden ontworpen voor performante, energie-efficiënte inferentie. Geheugendesign, c2c, bekabeling en allerlei andere ontwerpeisen die goed werken voor training, zullen waarschijnlijk niet opschalen voor inferentie als inferentie 100x+ groter is dan training.
4) in fysieke AI, na opslag (zie hierboven) zijn overvloedige RE's essentieel voor enige vorm van beweging/actuatie. Maar het verkrijgen van RE's uit de grond, in een oxide en vervolgens in een legering die kan worden gemaakt tot permanente magneten... is een enorme oefening in energie.
En de lijst gaat maar door...
.
.
.
Mijn punt is dat als je je richt op AI, je je aandacht moet gaan richten op energie, want het zal de poortwachter zijn van vooruitgang/verandering in de komende jaren op de AI-markt.

Rihard Jarc29 jul 2025
Een interessante opmerking van een voormalige $META-werknemer. ENERGIE is momenteel de grootste bottleneck.
Zelfs als $META $100-$150B wil uitgeven aan CapEx voor AI-infrastructuur, kunnen ze dat niet. Het is niet alleen $NVDA.
Transformers, stroomapparatuur, koelapparatuur en de beschikbaarheid van stroom zijn momenteel allemaal beperkt. Schneider Electric is volledig volgeboekt tot 2030.
Zelfs als je het geld hebt, kun je het niet uitgeven.

38,58K
Ik heb elke auto die je je maar kunt voorstellen gehad:
Range Rover
Mercedes
Bentley
Toyota
Ferrari
Volkswagen
Honda
En mijn Model Y is absoluut de beste, geen enkele concurrent komt in de buurt.

Elon Musk29 jul 2025
Model Y heeft de hoogste veiligheidsbeoordeling.
344,65K
Boven
Positie
Favorieten
Populair op onchain
Populair op X
Recente topfinanciering
Belangrijkste