Ontvang nu dagelijks onze kooptips!

word abonnee
Van beleggers
voor beleggers
desktop iconMarkt Monitor

Forum ASML NL0010273215

Koers (€) |
1.186,000  
Range | 1.183,00 - 1.220,00
-13,800   (-1,15%)
Volume
778.081
Bied
1.182,000
Laat
1.191,000
ASM

ASML 2025

Eerste post
    Reactie Reactie van: dd20251125
  1. quote:

    Inion schreef op 25 november 2025 16:29:

    GPU's mapte toevallig op Neural Networks? Dat woordje toevallig weet ik niet. Het hele idee van Accelerated Computing is een key-driver achter de visie van Nvidia.
    Een gpu kan je zien als een hele boel processors, die allemaal op een stukje geheugen / beeldscherm mappen.
    Al die processors werken dezelfde opdrachten uit, en voeren dit op een stukje geheugen / beeldscherm uit.

    Als je een NN hebt, kan je die zien als een hele hoop platte schermen op elkaar, dan wordt elke berekening voor de volgende laag gedaan, door voor elke pixel een berekening (met gewichten per pixel op de input laag) te doen op de vorige laag met een lokaal stukje scherm van de vorige laag.
    Tensor berekeningen.
    developer.nvidia.com/tensorrt

    Bij Nvidia is deze opportunity er toevallig bijgekomen, want met die vele processors kan je natuurlijk van alles doen. Maar het is daar nooit van scratch ontwikkelt om tensor berekeningen te doen.

    Het is nogal logisch dat als je wil concurreren met Nvidia, dat je hier een veel beter ontwerp voor probeert te maken.
  2. Reactie
  3. Reactie
  4. quote:

    TomvH schreef op 25 november 2025 16:48:

    Waarom zakt AMD eigenlijk zo hard vandaag? En had wat meer van Broadcom verwacht, maar misschien komt het nog vanavond gedurende de VS sessie.
    Misschien denken velen nog dat AVGO de chips maakt voor GOOGL (?).

    Dit is nl ook gecorrigeerd in dit bericht:
    (This story has been updated to reflect that Broadcom does not physically manufacture Google's TPUs.)
    seekingalpha.com/news/4525870-bofa-re...

    Het is zeer verwarrend.
    www.investing.com/news/stock-market-n...
    www.investing.com/news/stock-market-n...
  5. Reactie
  6. quote:

    r66 schreef op 25 november 2025 16:48:

    [...]

    Een gpu kan je zien als een hele boel processors, die allemaal op een stukje geheugen / beeldscherm mappen.
    Al die processors werken dezelfde opdrachten uit, en voeren dit op een stukje geheugen / beeldscherm uit.

    Als je een NN hebt, kan je die zien als een hele hoop platte schermen op elkaar, dan wordt elke berekening voor de volgende laag gedaan, door voor elke pixel een berekening (met gewichten per pixel op de input laag) te doen op de vorige laag met een lokaal stukje scherm van de vorige laag.
    Tensor berekeningen.
    developer.nvidia.com/tensorrt

    Bij Nvidia is deze opportunity er toevallig bijgekomen, want met die vele processors kan je natuurlijk van alles doen. Maar het is daar nooit van scratch ontwikkelt om tensor berekeningen te doen.

    Het is nogal logisch dat als je wil concurreren met Nvidia, dat je hier een veel beter ontwerp voor probeert te maken.
    Denk, dat je het ietwat te simpel voorstelt.

    Die ASIC's van Broadcom zijn in principe niet anders dan de chips van Nvidia. Het enige verschil is, dat een deel van de funktionaliteit hard gebakken in de chip zelf zit ipv programmeerbaar via een library. Daardoor wordt de chip sneller en zuiniger, maar het toepassingsgebied ook veel beperkter.

    Er hoeft maar iets te veranderen in de toepassing en de chip wordt onbruikbaar.

    Er is genoeg ruimte voor beide richtingen. Zoals altijd slaat de markt weer even door. Of naar boven of zoals nu naar beneden.
  7. Reactie
  8. quote:

    Inion schreef op 25 november 2025 17:19:

    [...]

    Denk, dat je het ietwat te simpel voorstelt.

    Die ASIC's van Broadcom zijn in principe niet anders dan de chips van Nvidia. Het enige verschil is, dat een deel van de funktionaliteit hard gebakken in de chip zelf zit ipv programmeerbaar via een library. Daardoor wordt de chip sneller en zuiniger, maar het toepassingsgebied ook veel beperkter.

    Er hoeft maar iets te veranderen in de toepassing en de chip wordt onbruikbaar.

    Er is genoeg ruimte voor beide richtingen. Zoals altijd slaat de markt weer even door. Of naar boven of zoals nu naar beneden.
    Ik zeg niet dat Nvidia gelijk weggevaagd wordt, maar al die NN's werken qua basis het zelfde.
    Het is in elk geval logisch dat je daar een beter ontwerp voor kan maken.
    Ik kan me voorstellen dat het helemaal niet digitaal hoeft, omdat de berekeningen niet precies hoeven te zijn. Bij NN's is het helemaal niet erg als er meer ruis op zit.
    Als je ergens een factor 100 of 1000 kan halen hierdoor ben je natuurlijk spek-koper.
  9. Reactie
  10. Reactie
  11. quote:

    nine_inch_nerd schreef op 25 november 2025 17:09:

    [...]

    Misschien denken velen nog dat AVGO de chips maakt voor GOOGL (?).

    Dit is nl ook gecorrigeerd in dit bericht:
    (This story has been updated to reflect that Broadcom does not physically manufacture Google's TPUs.)
    seekingalpha.com/news/4525870-bofa-re...

    Klinkt logisch, anders zouden ze waarschijnlijk ook wel machines van ASML afnemen.
  12. Reactie
  13. quote:

    kassa! schreef op 25 november 2025 18:03:

    [...]

    Klinkt logisch, anders zouden ze waarschijnlijk ook wel machines van ASML afnemen.
    BofA heeft dat zo gecorrigeerd, maar is het toch niet gewoon zo dat AVGO die TPU chips maakt voor GOOGL?
    Dus als META naar GOOGL gaat, zoekende naar een verklaring voor het koersgedrag AVGO - NVDA - AMD:
    - in principe geen issue voor AVGO
    - maar wel voor NVDA en AMD (zij maken chips voor META).
  14. Reactie
  15. Reactie
  16. quote:

    Inion schreef op 25 november 2025 18:24:

    De chips van Broadcom worden net als die van Nvidia gemaakt door TSMC.
    Maar levert ze wel aan GOOGL.
    “Maken” is ontwerpen en delegeren naar TSMC. Is toch vanzelfsprekend.
    :)

    Dat TSMC nu ook zo zakt, komt door de grotere volume impact van de ontwerpers AMD/NVDA door dit verhaal. ‘kans op missen productie’

    Nb: de schrik ebt weg ondertussen.
  17. Reactie
  18. quote:

    nine_inch_nerd schreef op 25 november 2025 18:25:

    [...]
    Maar levert ze wel aan GOOGL.
    :)

    Dat TSMC nu ook zo zakt, komt door de grotere volume impact van de ontwerpers AMD/NVDA door dit verhaal. ‘kans op missen productie’

    Edit:
    NB: de schrik is weer weg aan het ebben….

    Tbc.
    Ja, tbc idd. Je blijft lachen om de hopeloze reakties in de markt. Nvidia en AMD gaan het prima doen. Net als Broadcom en Google en Meta en Microsoft. Sommigen denken gewoon veel te veel. Altijd slim willen zijn. ;-)
  19. Reactie
  20. De brede markt begint er volgens mij gevaarlijk uit te zien, TA. In de S&P 500 dreigt een groot SHS-patroon te ontstaan. linkerschouder: 6765,6 (8 okt.), hoofd:6922,3 (30 okt) , Rechterschouder ? Koers zit nu tegen de top van de linkerschouder. Moet daar wel doorheen. Neklijn op ongeveer 6500. Bij doorbreken daarvan eerste koersdoel ongeveer 6230.
  21. Reactie
  22. Reactie
  23. Op zich een opmerkelijke dag: GOOGL die AMD en NVDA een leuke dreun geeft.
    Overkant herstelt, behalve AMD (-7%) en NVDA (-4%).
    Bijzonder. Wie had dat voorspeld?
    De ingewikkeldheid v.d. semiconductor-supply chain blijft interessant.
    Komt ook wel weer goed. Gezonde concurrentie is altijd goed.

    En deze, ja:
    quote:

    Sgar schreef op 25 november 2025 08:23:

    De concurrentiestrijd rond AI gaat verder:
    Gemini 3 vs. GPT-5.1 ..... Google lijkt de betere kaarten te hebben.
    www.financialexpress.com/life/technol...
    Softbank verliest fors hierdoor.
    www.bloomberg.com/news/articles/2025-...
    Microsoft werkt aan onafhankelijkheid van OpenAI.
    finance.yahoo.com/news/microsoft-free...

    Kan dit wat betekenen voor de financiën van OpenAI? Betekent dit wat voor StarGate? Of komt OpenAI toch weer boven drijven?
    www.techrepublic.com/article/news-ope...
    Concurrentie OpenAI:
    The OpenAI and Google battle is starting to look messy.
    Het spel schijnt te lopen.
    Kan nog leuk worden.
  24. Reactie
  25. Voor de SemiConductors is het alleen maar allemaal gunstig. Er zal alleen maar meer druk zijn en komen voor zuiniger en sneller chips. Door nieuw design, en nieuwe semi-conductor technologie.

    Ik ben benieuwd wat er boven komt drijven van de nieuwe initiatieven.
    Wat Nederlands, of Europees zoals Euclid zou leuk zijn :)
    euclyd.ai/adtechnology-collaborates-w...
  26. Reactie
  27. Reactie Reactie van: dd20251126
  28. Reactie
  29. Reactie
  30. Voor degene die er niet helemaal inzit:
    Training : het maken van AI modellen
    Inference : het gebruiken van al gemaakte AI-modellen

    GPU's zijn het beste voor training.
    ASICs zijn beter voor inference.

    80-90% van alle rekenwerk is/wordt inference.

    (Bijkomende vraag is wat de waarde nog is van verouderde GPU's; het idee was die te gebruiken voor inference, maar nu blijken ASICs niet alleen sneller maar ook energiezuiniger te zijn)

    An Inference ASIC is an Application-Specific Integrated Circuit custom-designed and highly optimized for running a trained artificial intelligence (AI) model to make predictions or generate outputs (the "inference" phase). Unlike general-purpose CPUs or GPUs, these chips are engineered for maximum efficiency, speed, and power savings for specific, fixed tasks.
    Key Characteristics
    Specialization: ASICs are built for a narrow set of operations, such as the specific matrix multiplications or tensor operations used in a particular neural network architecture (e.g., Google's TPUs were designed for TensorFlow).
    Efficiency: By eliminating general-purpose components, ASICs achieve superior power efficiency and performance per watt compared to more versatile hardware.
    Performance: They are optimized for low latency (fast response times) and high throughput (processing many requests in parallel), which is crucial for real-time AI applications.
    Fixed Architecture: Once manufactured, their architecture is largely fixed, meaning they are less adaptable to rapidly changing AI models or new types of algorithms compared to GPUs or FPGAs.
    Inference vs. Training
    The AI lifecycle has two main phases, each with different hardware needs:
    Aspect Training (Learning Phase) Inference (Execution Phase)
    Goal Tr: Teach the model patterns from vast datasets. Inf: Use the trained model to make predictions on new data.
    Computation Tr: Computationally intensive, involves backpropagation. Inf: Less demanding per operation (a "forward pass" only) but runs continuously and at scale.
    Hardware Focus Tr: Requires flexible, high-power chips (primarily GPUs). Inf: Prioritizes power efficiency, low latency, and cost-effectiveness (where ASICs excel).
    Major Players and Use Cases
    Major cloud providers and tech companies are developing custom inference ASICs to manage the massive scale and cost of running AI services.
    Google uses its custom Tensor Processing Units (TPUs) for inference in its data centers.
    Amazon Web Services (AWS) developed its Inferentia chips.
    Meta created the Meta Training and Inference Accelerator (MTIA) family of ASICs for internal workloads.
    Apple incorporates a Neural Engine (NPU) in its chips for on-device, power-efficient inference.
    ASICs are best suited for stable, high-volume AI applications such as:
    Image and voice recognition.
    Natural language processing (LLM inference).
    Real-time fraud detection.
    Autonomous driving systems.

    An Inference ASIC is an Application-Specific Integrated Circuit custom-designed and highly optimized for running a trained artificial intelligence (AI) model to make predictions or generate outputs (the "inference" phase). Unlike general-purpose CPUs or GPUs, these chips are engineered for maximum efficiency, speed, and power savings for specific, fixed tasks.
    Key Characteristics
    Specialization: ASICs are built for a narrow set of operations, such as the specific matrix multiplications or tensor operations used in a particular neural network architecture (e.g., Google's TPUs were designed for TensorFlow).
    Efficiency: By eliminating general-purpose components, ASICs achieve superior power efficiency and performance per watt compared to more versatile hardware.
    Performance: They are optimized for low latency (fast response times) and high throughput (processing many requests in parallel), which is crucial for real-time AI applications.
    Fixed Architecture: Once manufactured, their architecture is largely fixed, meaning they are less adaptable to rapidly changing AI models or new types of algorithms compared to GPUs or FPGAs.
    Inference vs. Training
    The AI lifecycle has two main phases, each with different hardware needs:
    Aspect Training (Learning Phase) Inference (Execution Phase)
    Goal Teach the model patterns from vast datasets. Use the trained model to make predictions on new data.
    Computation Computationally intensive, involves backpropagation. Less demanding per operation (a "forward pass" only) but runs continuously and at scale.
    Hardware Focus Requires flexible, high-power chips (primarily GPUs). Prioritizes power efficiency, low latency, and cost-effectiveness (where ASICs excel).
    Major Players and Use Cases
    Major cloud providers and tech companies are developing custom inference ASICs to manage the massive scale and cost of running AI services.
    Google uses its custom Tensor Processing Units (TPUs) for inference in its data centers.
    Amazon Web Services (AWS) developed its Inferentia chips.
    Meta created the Meta Training and Inference Accelerator (MTIA) family of ASICs for internal workloads.
    Apple incorporates a Neural Engine (NPU) in its chips for on-device, power-efficient inference.
    ASICs are best suited for stable, high-volume AI applications such as:
    Image and voice recognition.
    Natural language processing (LLM inference).
    Real-time fraud detection.
    Autonomous driving systems.
  31. Reactie Laatste reactie
  32. En hier meer de markt voor inference ASICs

    Let vooral op meer onafhankelijkheid van NVIDIA.

    The AI inference ASIC (Application-Specific Integrated Circuit) market is a rapidly growing segment of the overall AI chip market, driven by the need for cost-effective, high-efficiency processing of large language models (LLMs) and other AI applications.
    Market Size and Projections
    Current and Near-term Value: The overall AI inference market (including GPUs, ASICs, etc.) was estimated at approximately $91.43 billion in 2024, and is projected to grow to around $255 billion by 2030-2032.
    ASIC Share: While GPUs currently dominate the AI chip market, ASICs are projected to take a significant share of the inference market in the coming years due to their power efficiency and performance benefits for specific, stable workloads.
    Some analyses predict the AI ASIC market will reach $125 billion by 2028.
    One forecast suggests ASICs could eventually take over 80% of the inference market, with GPUs primarily focusing on the more flexible training segment.
    Growth Drivers: The market is driven by the explosive demand for real-time generative AI deployment, the expansion of hyperscale data center infrastructure, and the growing need for low-latency processing in edge devices like autonomous vehicles and IoT devices.
    Key Trends
    Shift from GPUs to ASICs for Inference: While GPUs offer flexibility for the constantly evolving AI training algorithms, ASICs are highly optimized for the fixed functionality required for large-scale inference deployment, offering superior performance-per-watt and cost efficiency. This "ASIC-ization" is already underway, mirroring past shifts in areas like cryptocurrency mining.
    Hyperscaler Adoption: Major cloud service providers (CSPs) such as Google (TPUs), Amazon Web Services (Inferentia, Trainium), Microsoft (Maia), and Meta (MTIA) are increasingly developing and deploying their own custom AI ASICs to optimize their data centers and reduce reliance on external vendors like Nvidia.
    Regional Growth: North America currently holds the largest market share, but the Asia Pacific region is expected to exhibit the highest Compound Annual Growth Rate (CAGR) due to increased investments in data centers and semiconductor ecosystems.
    Hardware-Software Co-Design: Companies are developing models that are explicitly designed to be hardware-friendly to maximize efficiency on specialized silicon.
    Major Players
    Nvidia currently leads the overall AI chip market, but companies like Broadcom and Marvell are key players in the custom ASIC design and manufacturing space, partnering with hyperscalers.
    Foundries like TSMC hold a critical, almost monopolistic position in fabricating these advanced chips.
    Other key players in the broader AI inference market include AMD, Intel, and various AI chip startups.

Meedoen aan de discussie?

Word nu gratis lid of log in met je emailadres en wachtwoord.

Forumregels | Lees hier het forumreglement

Kwaliteit boven kwantiteit

Lever een duidelijke en constructieve bijdrage aan de discussie. Kwaliteit trekt kwaliteit aan.

Blijf ontopic

beperk je reactie tot het onderwerp van het forumdraadje en haal er geen andere zaken bij.

Respecteer je medemens

Een afwijkende visie op een bedrijf rechtvaardigt geen persoonlijke aanvallen. Reageer op de inhoud van iemands argumenten, niet op de persoon;