AI- Google Search (Computertechniek)

door Maarten Bakker ⌂ @, Haarlem/Delft, 17-02-2026, 14:33 (3 uur en 24 minuten geleden) @ electron
Gewijzigd door Maarten Bakker, 17-02-2026, 14:42

Vroeger loonde het vaak zelfs om een ASIC te maken om iets te doen waar je nu bijvoorbeeld een PIC of een ATMega microcontroller voor zou gebruiken. Tegenwoordig alleen nog voor gecompliceerde taken of dingen die in realtime verwerkt moeten worden zoals videosignalen. Voor kleinere of flexibele productieseries wordt dan vaak een FPGA gekozen. Een beetje FPGA in een professionele monitor heeft 100.000 configureerbare poorten. Voor AI zijn ze ook bruikbaar.

De reden dat voor AI vaak grafische processoren gebruikt worden, is dat een neuraal netwerk makkelijk samengevat kan worden in matrices. Grafische processoren zijn geoptimaliseerd om die door te rekenen. Maar dat gebeurt alsnog iteratief, dus stap voor stap. Met een ASIC of FPGA kun je een neuraal netwerk in poorten uitwerken, dus signaal erin en 'direct' een uitkomst. Zeker als de toepassing vooraf bekend is en het niet tegelijk getraind hoeft te worden, gaat dat een stuk efficienter. Ik ga ervan uit dat er ook met allerlei tussenvormen wordt geexperimenteerd.


Complete draad:

 RSS Feed van berichtenreeks

powered by my little forum