Das Moore'sche Gesetz - RISC / CISC Disruption - Apple M1, ARM, Intel, AMD EPYC, Zen 3

  • Am Vor 6 Monate

    Horst LüningHorst Lüning

    ✘ Werbung: www.Whisky.de/shop/
    Von der Computergemeinde fast nicht bemerkt, vollzieht sich gerade eine disruptive Unterbrechung in der CPU-Entwicklung. Jeder aus der Informationstechnologie kennt das empirische Moore'sche Gesetz, das die Verdopplung der alle 2 Jahre beschreibt.
    Doch dieses Gesetz nach ist nicht umfassend. Es gibt Bereiche, die schneller laufen als andere. Und das führt in naher Zukunft zur Disruption, weil der der Prozessoren um mehr als eine zehnerpotenz abnimmt.
    Doku Faichild ► de-film.com/v-video-DCbRZGDV-ws.html
    Doko Intel ► de-film.com/v-video-JH2nXMv6yZI.html
    Ray Kurzweil ► de-film.com/v-video-5Ma33-ibjHs.html
    Chromebooks ► de-film.com/v-video-nor5BOJUY8M.html

Hans Vetter
Hans Vetter

Ich erinnere die damalige Formulierung von Gordon Moore wie folgt für das nach ihm benannte "Gesetz": "Alle 18 Monate verdoppelt sich die Anzahl der Transistoren auf einem Stück Silizium." ... Halbleiter-Technologien werden i.d.R. mit der Angabe der Gate-Length der FET-Transistoren (Field-Effect-Transistor) als kleinste Strukturgröße auf dem Silizium angegeben wird. Die Reihenschaltung eines PMOS- mit einem NMOS-FET ergibt eine CMOS-Stufe (Complement-Metal-Oxid-Semiconductor) zwischen Supply & Ground, die bei jedem Umschaltvorgang sehr kurzzeitig (ps) gleichzeitig offen sind. Dadurch entsteht die recht hohe Verlustleistung von CMOS-Technologien. Deswegen versucht man "gleichzeitige" Öffnen des einen CMOS-FETs mit dem Schließen des komplementären CMOS-FETs zeitlich zu versetzen, damit beide CMOS-FETs nicht mehr gleichzeitig offen sind ... das haben die Chip-Designer von ARM durch entsprechende Power-Management-Logik für die Clock-Trees dieser hochkomplexen Synchron-Logiken gut gelöst ...

Vor 2 Tage
Hans-Juergen Roemhild
Hans-Juergen Roemhild

Mein Samsung älterer Bauart ist letzte Woche explodiert und hat erheblichen Brandschaden verursacht. Pauschale Schadensabwicklung gibt es bei Samsung nicht. Jetzt wurden die Reste von zwei maskierten Herren abgeholt. Sie haben auf meine Bitte hin sogar Bilder vom Schaden gemacht, die ich hätte liefern sollen. Es wird jetzt nach England zur Untersuchung geschickt. Es scheint eine bürokratische Endlosschleife eröffnet. Leider habe ich keine Rechtsschutzversicherung mehr. Dafür habe ich als Rentner Zeit bis zum Tode um mich selbst in den Kampf gegen Konzerne zu begeben. Vielleicht sollte ich eine Doku-Soap daraus machen. Titel z.B.: Handys für 5jährige Kindergartenbesucher sind Kinderschändung.

Vor 2 Monate
Lucid Lucid
Lucid Lucid

Tolles Video. Eine kleine Ergänzung für diejenigen, die Augenschmerzen vom Bildschirm haben. Ich benutze einen speziellen Filter, der vor der gefährlichen Strahlung des Bildschirms und auch vor Blendung schützt. Mehr Infos hier https://mitralicht.de/blaulichtfilter/ Natürlich habe ich überprüft, wie "Nachtmodus", F.lux und Software-Blaulichtfilter funktionieren. Bei mir hat es nicht funktioniert. Nur mit diesem Filter habe ich einen echten Erleichterung für Augen.

Vor 4 Monate
Anonymous Commentator
Anonymous Commentator

Naja also den Vergleich zwischen CPU und Gehirn fand ich mehr als schwach. Ein i5 mit ca. 4 oder 5 GHz braucht für eine Addition weniger als 1 Takt pro kern. Das heißt das sind bei 6 Kernen (oder sogar 12 Threads) theoretisch 30.000.000.000 Additionen pro Sekunde. In der Realität sind das aber noch VIEL mehr. Laut dem englischen Wikipedia zu "Instructions per Second" schafft die 9. Generation der Intel Prozessoren (die aktuelle ist 11, also nochmal höher) ca. 11 Instruktionen pro Takt pro Kern und skaliert fast perfekt bis zum i9 hoch. Das heißt also 11ips/core/cycle*6core*5.000.000.000cycles = 330.000.000.000 Additionen pro Sekunde. Das Gehirn schafft im Schnitt vielleicht 0,3 Additionen pro Sekunde (ja bei etwas leichtem gehts schneller aber 423678974+897435 braucht länger, die cpu nicht). Das Gehirn ist dafür in anderen Bereichen besser dabei aber gerade weil sie so unterschiedlich sind finde ich den Vergleich mehr als nur dürftig.

Vor 4 Monate
Käptn Welpe
Käptn Welpe

Es gibt defakto kein reines CISC mehr da Intel und AMD intern mit MicroOps arbeiten. Der Aufwand den CISC-Befehl in mehrere MicroOps zu zerlegen ist jetzt nicht der Grund warum Apples ARM Chips weniger Strom verbrauchen. Sondern - eine CPU kann entweder auf Stromverbrauch, Performance oder I/O Bandbreite optimiert werden. Bei ARM ist der "Witz" der Stromverbrauch wenn NICHTS gemacht wird. Den Rest an Vorsprung hat Apples M1 einfach durch die neuere Fertigungstechnik und die Nicht-Erweiterbarkeit. BTW: weder ARM noch amd64 sehen Land bei I/O Brandbreiten-Anwendungen wie sie im Serverbereich vorkommen - dort ist der Markt für IBM POWER sowie Oracle/SUN SPARC CPUs...

Vor 5 Monate
drzeissler
drzeissler

ARM ging doch nach JAPAN zu einer Beteilungsfirma.

Vor 5 Monate
Horst Lüning
Horst Lüning

Erst ging die Firma zur Softbank und aktuell zu NVIDIA: https://article.wn.com/view/2020/09/14/Softbank_verkauft_Chipfirma_Arm_an_Nvidia/

Vor 5 Monate
TB B
TB B

macbook Air M1 oder das Pro M1....letzteres habe ich mir geholt und bin begeistert. Allein schon die Akku Laufzeit. Mein iPad pro 12,9 von 2020 hält halb so lange durch

Vor 5 Monate
TB B
TB B

schönes hinkel..ne alles gut wieder ein gutes Video von dir. Weiter so

Vor 5 Monate
Kaidan Alenko
Kaidan Alenko

34:00 Liegt faul auf der Couch, schaut auf Uhr: Ruhepuls 48. Dreht sich beruhigt um und gammelt weiter auf der Couch

Vor 5 Monate
TheBadFred
TheBadFred

Ausser der ARM-Architektur gibt es noch Risc-V ( https://riscv.org/ ), Ein offner Standard, der mittlerweile Anklang findet. Dann gibt es noch die relativ, unter Bastlern, beliebten Singele Board Computer von Raspberri Pi, die ebenfalls wie Anfroid auf einem Linux-Kernel basieren. Ein Problem von Windows sind die stark in CISC verwurzelten Software-Bibliotheken, die meist closed source sind.

Vor 5 Monate
bothie
bothie

Eine Korrektur: Der 8088er war, wie der 8086er, den Sie nicht erwähnt haben, eine 16-Bit CPU. Der 8088 hat nur im Gegensatz zum 8086 einen 8-Bit-Datenbus, muss also alle 16-Bit-Zugriffe in zwei 8-Bit-Zugriffe zerlegen. Wie das mit dem Kühlen der Rechenzentren (nicht) funktioniert, hat hier Kristian Köhntopp in einem Vortrag erwähnt: https://youtu.be/e0CCv7pSK4s?t=1331

Vor 5 Monate
Horst Lüning
Horst Lüning

Danke für die Korrektur beim 8088.

Vor 5 Monate
Toeb xx
Toeb xx

Es gibt aktuell ein Surface von Microsoft mit ARM Prozessor. Das einzige Problem dabei, dass einige Software darauf nicht läuft U.A. Photoshop für Windows. Wenn das korrigiert bzw. von den Softwareherstellern angepasst wird, steht einem ARM-Windows-Laptop nichts mehr im Weg!!

Vor 5 Monate
Jens Löwe
Jens Löwe

schauen wir mal... kann so kommen - aber vielleicht rettet Israel Intel mal wieder den Arsch....

Vor 5 Monate
Thorsten Hirsch
Thorsten Hirsch

60 Sekunden sollen vom Ruhepuls kommen? Also dafür konnte ich keine Belege finden. Stattdessen ist es wohl so gewesen, dass die Babylonier die Stunde in 60 Minuten eingeteilt hatten und die Sekunden erst viel später "erfunden" wurden als man eine genauere Zeiteinteilung gebraucht hat. Man hat einfach nochmal 60 genommen, weil dies die benötigte Genauigkeit brachte (12 wäre zu ungenau gewesen) und man keine neue Zahl einführen musste. Dass der Ruhepuls bei ungefähr 1Hz liegt, scheint nur Zufall zu sein.

Vor 5 Monate
madcatme
madcatme

Der M1 (Macs) und der A14 (iPhone, iPad) sind übrigens schon in TSMCs 5 nm Node gefertigt. AMD wird mit Zen 4 Ende des Jahres oder Anfang 2022 nachziehen. Intel fährt langsam seine 10 nm Node hoch, aber aktuell gibt es nur ein paar Atoms und Notebook-CPUs. Die aktuellsten Core-CPUs (Rocket Lake S) sind noch 14 nm, mit einer von 10 nm rückportierten Architektur. Bietet zwar mehr IPC, aber der Stromverbrauch ist absurd. Ein sehr anerkannter Tech-YouTuber (GamersNexus) sprach sogar spöttisch, dass diese Generation eine Verschwendung von Sand sei. Wahrscheinlich im Herbst wird Intel erstmals 10 nm in den Desktop bringen, mit Alder Lake S. Der könnte ein großer Schritt sein, da Intel auf eine big.LITTLE-Architektur setzt, analog zu den ARM-Designs. Die einzelnen CPU-Kerne teilt man in zwei Kategorien ein: hohe Leistung und hohe Effizienz. Apples M1 z.B. hat vier Hochleistungskerne (Firestorm) und vier sehr effiziente Kerne (Icestorm). So kann das OS je Auslastung und Anforderung die Rechenaufgaben auf beide Kernarten verteilen. Für Intel ist in dem Fall also wichtig, dass Microsoft den Thread Scheduler in Windows 10 rechtzeitig anpasst, um die Vorteile aus dieser Architektur ziehen zu können. Aus der Praxis: ich habe mir zum Start das kleinste MacBook Air mit M1 gekauft, mit sogar nur 8 GB RAM. Dieses kleine, komplett passiv gekühlte Biest, zieht Kreise um mein 15" MacBook Pro Mid 2017 mit einem Core i7-7700HQ (Quad-Core mit HyperThreading), 16 GB RAM und diskreter AMD-GPU. Es kompiliert mein aktuelles Software-Projekt (Java, Kotlin) dreimal so schnell, vergleichbar mit meinem Desktop-Rechner (Ryzen 9 3950X). Ich könnte ca. acht bis neun Stunden auf Batterie in einem Google Meet verbringen, mit dem Intel-Kollegen sind bestenfalls 2,5 Stunden drin. MacOS bietet ein nettes Tool, um den aktuellen Stromverbrauch des M1-SoCs auszulesen. Die GPU braucht selbst mit einem zusätzlichen Monitor nur wenige Milliwatt, wo das MacBook Pro seine AMD GPU zuschaltet, die konstant ca. 10 W verknallt. Das Air zieht unter voller Last gerade mal 12 - 15 W über den SoC, also mit allen anderen Verbrauchern vielleicht 20 W.

Vor 5 Monate
Horst Lüning
Horst Lüning

Danke für die Info. Die unterschiedlichen Kerne in Sachen Leistung und Effizienz hat mein Samsung Galaxy Note schon seit vielen Jahren.

Vor 5 Monate
Max W
Max W

Das ist sehr starkes Video, vielen dank dafür! Besonders die Verknüpfung der alten und neuen Geschichte mit dem Status Quo ist Ihnen überaus gelungen. Absolut sehenswert!

Vor 5 Monate
Der Röstmeister
Der Röstmeister

Man kann aktuell Windows Laptops mit Intel oder arm Prozessoren kaufen. Die guten Dinger kommen von Samsung und heißen Galaxy Book S bzw. ION und sind keine Tablets mit Tastatur, sondern echte Läppis . der Vorteil bei den Arm basierten Läppis ist das bessere Durchhaltevermögen mit dem Akku, das bestätigen die Kommentare bei Amazon und vielen Videos dazu bei Youtube. Lediglich bei dem Arm Windows Galaxy Book muss man die etwas spärliche Softwareauswahl beachten. Der microsofteigene x86 emulator schafft noch keine wunderwerke, dennoch ein interessantes Produkt

Vor 5 Monate
Thomas F.
Thomas F.

Microsoft hat auch angefangen eigene arm based Prozessoren zu entwickeln. Außerdem gibt es auch arm basierte laptops von Microsoft.

Vor 5 Monate
Gerhard Hager
Gerhard Hager

Leider fast in Vergessenheit geraten…ARM ist ursprünglich eine Britische Firma, und der HW Teil von Acorn Computer (besser bekannt als BBC Computer). Der Prozessor wurde seinerzeit (1980 Jahre) entwickelt um einen Nachfolger zum MOS6502 zu haben, zum anderen um eine gewisse Rückwärtskompatibiltät zum 6502 zu bekommen. Die Rechner hiessen damals (glaube ich) Acorn Archimedes. Es ist immer wieder erstaunlich wie diese HW Firma es geschafft hat, so groß zu werden. Meine Theorie ist, dass TI (Texas Instruments) da kräftig mitgeholfen hat. Am Anfang der Handy (Nokia, Ericsson, Siemens et al) Zeiten konnte TI mit seinem excellenten DSP in Skandinavien punkten; TI fehlte jedoch ein leistungsfähiger Prozessor MPU. TI entschied sich für eine ARM Struktur, und nannte es OMAP. So kam meiner Meinung nach ARM ins Handy Geschäft. Die Follower Samsung, Apple etc. haben das bewährte ARM Prinzip weitergeführt.

Vor 5 Monate
M. Michaelis
M. Michaelis

Das ist nicht erstaunlich denn ARM ist keine Hardware Firma mehr sondern lizensiert die Technologie. Apple und Samsung haben nicht weitergeführt sondern sind Lizenznehmer.

Vor 5 Monate
dany 2k3k
dany 2k3k

Haben sicher schon welche geschrieben :) aber "10 hoch 1" ist und bleibt 10 :) .. nicht 1.. (min. 10:10) Sprechfehler.. ich weiß schon... Aber da musst aufpassen mit so aussagen.. Deutsche Politiker und besonders eurer Finanzminister glaubt dir das sofort..

Vor 5 Monate
Kaan Yazici
Kaan Yazici

Was sind das für Vögel?

Vor 5 Monate
Horst Lüning
Horst Lüning

Australische Regenwald-Vögel.

Vor 5 Monate
thalamay
thalamay

Danke für die schöne Zusammenfassung. Auch wenn mir als technikaffinem Menschen das meiste bekannt war, so habe ich doch auch Neues (bzw. Altes) gelernt. Vor allen Dingen hat auch der Kontext in den das alles gesetzt wurde zum Nachdenken angeregt, auch über Mikrochips hinaus.

Vor 5 Monate
Impossible2500
Impossible2500

Das heist quais man müsste Coinmining mit solchen den energie armen Chips betreiben.^^

Vor 5 Monate
Impossible2500
Impossible2500

​@Horst Lüning Das heist mit CPUs können se Konkurrieren aber für GPUs reicht nicht. Was halten Sie von der Theorie Mining zu betreiben um überschüssige Photovoltaik Energie zu verwenden. So Energiespitzen sind ja durchaus Problematisch für das Netz. Theoretisch sollte jede Anlage die einspeist von der "Stromzentrale" an oder ausschaltbar sein. Immerhin würde der Hochsommer mit 16h Sonnenstunden durchaus lukrativ sein. Und im Winter einen Industrietarif. Deutschland is zwar Inovations feindlich aber ich bin der Meinung es sollte dennoch gewinnbringend sein.

Vor 5 Monate
Horst Lüning
Horst Lüning

Genau das machen die Miningfarmen. Sie rechnen Gesamtkosten. Und da sind die Grafikchips und ASICS immer noch billiger pro Rechenleistung als diese ARMs.

Vor 5 Monate
Andreas Weitl
Andreas Weitl

Naja diese RISC - CISC Diskussion ist meiner Meinung nach mittlerweile überholt. Alle jetztigen x86 Prozessoren, sind intern RISC, nur ein Microcode setzt die CISC intern in kleine Unterschritt auf. ARM ist auch nicht sooo RISC nach der reinen Lehre. Aber egal, die Hauptrichtung stimmt schon. Die x86 Welt leidet zunehmend an komplexen Umsortierungs- und Optimierungsaufgaben, die bei ARM größtenteils der Compiler umsetzt und dadurch zur Ausführung nicht mehr notwendig ist. Was oft übersehen wird, ist der Zusammenhang mit dem Speicherbedarf. RISC Executables sind mehrfach größer als CISC Executables, was den Hauptspeicher und deren Bandbreiten wiederum belastet. Nachdem aber ARM hier ja auch einige Tricks auf Lager hat, sind die Grenzen nicht mehr so scharf. Außerdem haben sich die Hauptspeicherbegrenzungen der alten Zeit aufgelöst und sowohl Hauptspeicher und Bandbreiten sind mehr als genügend vorhanden. Die Revolution seitens Apple ist eher eine Marketing, bzw. Finanzielle Revolution. Anstatt INTEL viel Geld für die Prozessoren zu geben, machen sie das Geschäft nun selbst. Außerdem haben sie nun CPU Optimierungen selbst in der Hand, und müssen nicht mehr INTEL bitten, doch so manche Schwachstelle endlich zu beseitigen. Das haben sie beim M1 genutzt, was einige Flaschenhälse beseitigt hat. Die Gesamt CPU Rechenleistung dürfte immer noch schwächer zu INTEL i9 etc. sein, aber das ist nicht entscheident. Entscheident ist das beseitigen von Flaschenhälsen (z.B. Bandbreite CPU zu Grafikmemory, Interfaces, Ansprechen von Gleitkommabefehlen). Das wirkt sich dann in der wahrgenommenen Performance wesentlich mehr aus. Ich selbst halte den Weg auch für sehr vielversprechend. Gerade für Laptops ist das ein gewaltiger Sprung, mehr Rechenleistung pro Watt zu bekommen. Kann durchaus sein, dass die Konsumer- Rechnerwelt tatsächlich komplett auf ARM geht, weil dies bei Handy, Tabeltts eh schon so ist. Laptops haben mit dem M1 ein großes Potential gezeigt. MacOS ja nun schon auf ARM portiert ist, und Linux und Windows dies wohl auch schon gezeigt haben, dass es geht.

Vor 5 Monate
Vigilant
Vigilant

Wieso sind PC-Netzteile und heute Grafikkarten schwer auf Mindfactory oder Amazon zu finden? Die sind gelistet, aber nicht bestellbar. Sonderbar. Das gleiche Bild mti Spiegelreflexkameras. Die Auswahl ist deutlich dünner geworden! Hat da jemand Informationen dazu?

Vor 5 Monate
Ano Nym
Ano Nym

Halbleitermangel und teure Lieferketten.

Vor 5 Monate
Achim Hajek
Achim Hajek

Die EUV Lithographie zum Belichten der Waver ist in diesem Zusammenhang spannend. ZEISS hat hier technologisch die Schallmauer von 13,5 nm geknackt. Unglaublich wieviel Physik notwendig ist, um Licht mit so kurzer Wellenlänge zu erzeugen und so zu formen, dass Strukturen aufgebracht werden können.

Vor 5 Monate
Thomas Heckel
Thomas Heckel

was ist wenn Intel den Rückstand aufholen kann? Noch werden bei dem Kauf von Serverhardware Intel Prozessoren standardmäßig angeboten. Ich glaube es ist zu früh um Intel abzuschreiben

Vor 5 Monate
53 - Herbie
53 - Herbie

Hallo Herr Lüning, alles sehr interessant und auch richtig hergeleitet hinsichtlich der CPU-Historien von 80x-Prozessoren und den hinlänglich bekannten Lapsus diverser sog. Weiser Männer (IBM). Nur vermisse ich in ihrer Ausführung zum bekanntestem leistungsfähigsten Computer - dem menschlichen Gehirn - eine ebenso nachvollziehbare und tiefer gehende Erklärung. Die beiden Parameter Taktfrequenz von 5-10Hz und dem Energieverbrauch von ca. 40W alleine stellen für mich in keiner Weise einen ausreichend gut ausgeführten Zusammenhang her. Mich hätte ebenso interessiert, wie sie den Unterschied in der Architektur und somit die Ursache des hohen Leistungsunterschiedes (FLOPS/W) von RISC/CISC-Chips erklärt hätten. Ansonsten wie immer ein informatives Video, zumal ja der Energieverbrauch unserer Gesellschaft zunehmend auch immer mehr vom Entertainment- und Informationsbereich bestimmt wird. Hier eine Einsparung von CPU's von 80-250W TDP runter auf unter 20W zu bringen wird weltweit schneller weitreichendere Erfolge bringen als neue Normen für Haushaltsgeräte (A+++++++++++++ LOL, wo keiner die graue Energie mitberücksichtigt).

Vor 5 Monate
Shelldamage
Shelldamage

Das Moore'sche Gesetz beschreibt nicht den Zuwachs der Leistungsfähigkeit. Es beschreibt den Zuwachs der Integrationsdichte, also die Dichte an Transistoren, also die Anzahl pro Fläache. Das kann in Rechenleistung resultieren, muss es aber nicht. Und das allerwichtigste, dass praktisch nahezu jeder bei der Beschreibung vergisst, auch viele sog. Experten; das Moore'sche Gesetzt beschreibt den Zuwachs der Integrationsdichte immer bei den zum jeweiligen Zeitpunkt geringstmöglichen Produktionskosten pro Stück! Niemand würde einen Chip-Hersteller daran hindern, 10 Jahre den selben Chip mit der selben Strukturbreite herzustellen. Aber dann würden auch die Stückkosten nicht sinken. Daher ist der Punkt mit den geringsten pro-stück-kosten essenziell!

Vor 5 Monate
cpljaide
cpljaide

Wie immer danke für das Video @ Herr Lüning. Was denken Sie über den kommenden Intel Alder Lake Prozessoren? Intel wird hier zum ersten Mal (auch in 10nm) einen Mix aus großen und kleinen Kernen (ähnlich ARM) auf den Desktop Markt werfen im Herbst/Winter. Ich bin extrem auf Leistung und Effizienz gespannt, das könnte auch mal wieder für den guten alten Desktop einen Durchbruch hinweg von "nur" x86 werden.

Vor 5 Monate
Galaxy Center
Galaxy Center

Der Truthahn frisst den anderen Vögeln das ganze Futter weg!

Vor 5 Monate
Stefan Urban
Stefan Urban

Hallo Herr Lüning, kleinen Fehler gefunden an der Stelle 10:09: 10 hoch 0 = 1, aber 10 hoch 1 = 10 und nicht 1. ;> Aber wirklich spannendes Video. Die Geschichte von Intel kannte ich noch nicht. Weiter so und vielen Dank!

Vor 5 Monate
Horst Lüning
Horst Lüning

Sprechfehler sind immer drin. Mehr als wir alle bemerken. Die Skala war aber richtig.

Vor 5 Monate
Need For Speed In Kia Ceed
Need For Speed In Kia Ceed

Auf derm Desktop und Laptop oder Hybridmarkt (2 in 1 Laptops) Markt hat AMD Intel schon längst abgezogen. Intel kriegt das 7nm Verfahren nicht hin während AMD bereits am 5nm arbeitet. Das Preis-Leistung Verhältnis war bei AMD schon immer besser als bei Intel. Aber danke Corona ist der Markt für Laptops um 20% gestiegen.

Vor 5 Monate
Kepasko
Kepasko

Und wieder sehen wir: Der limitierende Faktor im Kapitalismus ist das Wissen und nicht die verfügbaren Ressourcen. Wir haben Wachstum durch technologischen Fortschritt und verbrauchen dabei weniger Energie.

Vor 5 Monate
Andreas Wagner
Andreas Wagner

Richtig, aber erzähl das mal linken Ideologen oder z. B. Selbst einem Harald lesch.

Vor 5 Monate
Eric Gerdum
Eric Gerdum

Ein 32 Kerner möchte sich der Herr Lüning also kaufen. :-) Viel Spaß.

Vor 5 Monate
Käsehund
Käsehund

Ich bin die ganze Zeit von dem dicken schwarzen Laufhuhn abgelenkt ... ihr tropischer Garten Herr Lüning? ;-) Spaß beiseite, interessantes Video, danke für die vielen Informationen! VG der Käsehund

Vor 5 Monate
Peter Wiegel
Peter Wiegel

O-Ha, Das gibt dann sicher einiges an elektrischer Enrgie für den Verkehr frei, und schon wider wird hier der Wechsel erleichtert.

Vor 5 Monate
Peter Wiegel
Peter Wiegel

@Hans Was auch immer aber er wird auch nicht so schlimm steigen, wie immer befürchtet, weil einiges an derzeit verstecktem Stromverbrauch wegfällt, und das größte Problem des unsteten erneuerbaren Stroms durch immer mehr Akkus gelöst werden kann. Was die kurzlebigen Akkus anbelangt: Gerade heute habe ich meinen uralten Laptop geschlachter, dr hat 17 Jahre auf dem Buckel, und stand schon viele Jahre als nicht mehr ladbr im Schrank, er lief nur mit Netzteil. Heute hab ich den Akkupack zerlegt, der war komplett tod. Nachdem ich die Akkuzellen dabon separiert hatte, hatten alle Zellen nach vielen Jahren im Schrank noch 20 bis 25% Restladung, und ließen sich problemlos, wen n auch jangsam voll aufladen.

Vor 5 Monate
Hans Was auch immer
Hans Was auch immer

Der gesamte Stromverbrauch wird nicht sinken

Vor 5 Monate
McBane55
McBane55

Mich würde ja mal interessieren ob Herr Lüning jetzt wieder Apple Aktien kauft wo sie ja jetzt als erster die ARM Prozessoren im Bereich der Desktop Systeme einsetzen?  Also ich bin sehr begeistert von dem Schritt den Apple da gegangen ist und wundere mich auch ein wenig das der Aktien Kurs darauf gefühlt nicht reagiert. Man muss ja auch sagen das selbst die Umstellung auf das neue System besser läuft als sich die meisten wahrscheinlich vorgestellt haben/hätten. Ich persönlich bin seit 2011 Mac User und Arbeite seit 11/20 auch mit einem M1. Bis Dato für meinen Anwendungsbereich gabs keinerlei Einbußen oder Probleme, im Gegenteil, man bekommt nen verdammt flottes System für sein Geld!

Vor 5 Monate
Claude Holzmann
Claude Holzmann

Bei der von ihnen erwähnten Halterung hat der Prozessor ja gar keine aktive Kühlung und überhitzt das dann nicht?

Vor 5 Monate
Jan V
Jan V

Ein Prozessor muss nicht unbedingt aktiv gekühlt werden, wird ja bei Handys auch nicht gemacht. Beim MacBook Air wird der M1 auch nur noch passiv gekühlt.

Vor 5 Monate
Aaaragorn
Aaaragorn

Die Leistung in MIPS/Watt war bei den Arm-Chips von Anfang an konkurrenzlos - schon als sie noch in den Acorn Archimedes Homecomputern steckten. Wenn man nicht Grad fpos bräuchte waren sie damals schon deutlich schneller weil pro Takt ein Befehl, Intels PC Prozessoren haben minimal drei Takte gebraucht. Grund: Arms Prozessordesign mit Pipeline und Befehlssatz der auf ein Befehl pro Takt ausgerichtet ist. Ne fpu gab es spätestens beim Acorn Risc-PC. Noch bevor ARM aus Acorn ausgegliedert wurde. Siehe auch Acorn Archimedes. Der A3010/20 war übrigens das erste System in a Chip. Im Grunde damals 1992 schon alles was ein Handy braucht auf einem Chip (ausser den Speicher).

Vor 5 Monate
Inf0rmatix
Inf0rmatix

Jaja Intel hat massiv verschlafen und sich viel zu lange auf ihrem Erfolg ausgeruht.

Vor 5 Monate
SanKo
SanKo

Moore’s Gesetz sagt, dass sich die Komplexität der integrierten Schaltkreise alle zwei Jahr verdoppelt. Das ist natürlich nicht mit einer Verdoppelung der Leistung gleichzusetzen.

Vor 5 Monate
Robert Holzmann
Robert Holzmann

Danke.

Vor 5 Monate
andre weiss
andre weiss

7nm AMD oder 14nm Intel sagt nichts mehr über die Größe der Kondensatoren aus sondern um einen Fortschritt im Herstellungsprozeß die Packungsdichte und andere Faktoren.

Vor 5 Monate
fd sf
fd sf

kaufen Sie sich mal n Ryzen

Vor 5 Monate
ekhaat
ekhaat

PowerPC Prozessor war Motorola, wenn ich mich recht erinnere

Vor 5 Monate
Alexander L
Alexander L

Ich kann bei Amazon irgendwie nicht diese ARM Chips finden. Ich wollte man die Preise vergleichen.

Vor 5 Monate
Horst Lüning
Horst Lüning

Das sind eigene Prozessoren. Kann man nicht kaufen. https://en.wikipedia.org/wiki/Annapurna_Labs

Vor 5 Monate
Tim Wuschelkopp
Tim Wuschelkopp

Spannendes Thema... vor 10 Jahren hatte ich Maschinenbau Hauptfach Regelungstechnik mit Risc und Cisc zu tun... und der Prof hat damals schon gemeint dass Cisc keine Zukunft hat, das hatte ich auch geglaubt. Leider war man da mit der Meinung weitesgehend alleine und die Intels und Co hatten doch einen großen Vorsprung aufgebaut. Interresannt dass es dann doch anders gekommen ist.

Vor 5 Monate
Hans Was auch immer
Hans Was auch immer

F. Porsche hat sich auch mit Elektroautos beschäftigt, langsam bekommt er wieder Recht.

Vor 5 Monate
ganjafield
ganjafield

Ich denke schon das Sie recht haben könnten mit dem Durchsetzen von ARM-Prozessoren, allerdings eher mittel- bis Langfristig. Auch bin ich gespannt wie es mit einem ARM Chipsatz auf PC-Ebene umgesetzt werden soll? Modular wie ein PC oder gibt es alles nur auf einer SOC-Platine bei der man nichts mehr tauschen kann? Oder lässt sich vielleicht nur die Grafikkarte tauschen und der Festplattenspeicher erweitern? Ich wüßte nicht das Irgendwas in der Richtung von ARM in Planung ist. Apple hat ja gerade einen sehr schnellen Prozessor in der Mache. Das ist schon beeindruckend. https://www.pcgameshardware.de/CPU-CPU-154106/News/Apples-M1-Chip-kann-im-PassMark-sogar-Rocket-Lake-schlagen-1369204/ Apple wird sich trotzdem nicht bei der großen Masse durchsetzen. Wäre auch schlimm, sonst kommen wir von einem relativ geschlossenem Windows-System auf ein noch verschlosseneres und völllig überteuertes Apple-System. Gerade Gaming an solchen Systemen wäre nicht mehr bezahlbar und würde selbst mich als eingefleischten PC-Gamer zu den Konsolen treiben. Für produktive Zwecke sind aber Apple Geräte sehr interessant. Apple konnte schon immer sehr gut Software programmieren. Dafür waren Sie in einigen Bereichen bei der Hardware immer 2-4 Jahre hinterher. Die Software konnte schon oft die etwas ältere Hardware zu Glanzleistungen verhelfen. Wenn jetzt noch schnelle Hardware in den Macs dazu kommt, müssten die Dinger eigentlich wahnsinnig ordentlich abgehen. z.B. in Bereichen wie Videoschnitt und ähnlichen Dingen.

Vor 5 Monate
ganjafield
ganjafield

@Horst Lüning Könnte mir auch ein Board vorstellen mit verlötetem Hauptspeicher und CPU. Hätte nur einen kleinen Nachteil. Muss muss sich vorher genau überlegen wieviel RAM und CPU Power man die nächsten Jahre braucht. Dafür hätte man aber den Vorteil sehr guter Anbindung der einzelnen Komponenten. Denn die Hersteller müssten die CPU und Speicher nicht immer nach Schema F anbinden. Ähnlich wie es bei Grafikkarten-Boards oft variiert.

Vor 5 Monate
Horst Lüning
Horst Lüning

Ich bin mir ziemlich sicher, dass man den PCIe-Bus für Steckkarten behalten wird. Als IBM damals mit den PS/2 Modellen vom Standardbus abging, war das der Anfang vom Ende. UNd bei den PCs ist es doch auch schon so, dass man in der Regel CPU und Board tauscht. Weil a) nach ein paar Jahren der Sockel obsolete ist und b) häufig das Bottleneck auf dem Board (Speicher, Bus) zu finden ist.

Vor 5 Monate
Bilderkistl. de
Bilderkistl. de

Das Gute an Tee is, du darfst ihn auf der Arbeit trinken. Das Gute an Whisky ist, er schaut aus wie Tee...

Vor 5 Monate
Cristiano Caspari
Cristiano Caspari

Ja die Apple M1 Cores sind schnell und effizient. Sie haben gegenüber AMD (7nm) und Intel (10nm, großteils noch 14nm, ja ich weiß die nm sind Marketing und nicht vergleichbar) einen Fertigungsvorteil mit 5nm. Die Beschleunigung beim Rendern und Abspielen von Videos ist im wesentlichen spezieller Hardware-Erweiterungen zu verdanken, die die M1 SOCs besitzen um die die Codecs effizient zu berechnen. Ähnliche Erweiterungen sind auch auf Grafikkarten vorhanden, nur müssen die auch von der Software genutzt werden und exakt auf den Videocodec passen. Ein Teil der Effizienz liegt auch im hochintegrierten Design begründet, es sind wenige I/O-Schnittstellen vorhanden und der RAM liegt sehr nah am CPU-Die. Dadurch lassen sich am Ende wahlweise höhere Takte bei bei besserer Effizienz fahren. Ob größere CPU Varianten mit mehr Kernen und mehr I/O hier ein wenig Effizienz einbüßen, muss sich noch zeigen, wenn Apple die entsprechenden Modelle bringt. Zweifellos beeindruckend, was Apple hier entwickelt hat. So weit, wie manche glauben ist der Vorsprung aber nicht. Die beste bisherige Analyse dazu gibts mMn auf Anandtech: https://www.anandtech.com/show/16252/mac-mini-apple-m1-tested Im Übrigen würde ich auch Intel nicht abschreiben. Der Fertigungsrückstand ist inzwischen groß, aber die CPU-Designs stimmen nach wie vor, auch wenn sie sich in der Fertigung nicht wie geplant umsetzen lassen. Wie schnell sich das Blatt wenden kann, hat man in den letzten Jahren gesehen. Vor 5 Jahren war der Fertigungs-Vorsprung von Intel noch gewaltig gegenüber TSMC uns Samsung. Wie auch immer spannende Zeiten.

Vor 5 Monate
Matthias Waldhauer
Matthias Waldhauer

Juhu, Herr Lüning referiert über mein Lieblingsthema. :D

Vor 5 Monate
Gerhard Hiemer
Gerhard Hiemer

Und vielen, vielen Dank für deine Arbeit an der Verbesserung der Welt und dem Kampf gegen die Dummheit.

Vor 5 Monate
dizzi
dizzi

Mit Alder Lake stellt Intel doch schon die Weichen. In der theoretischen Diskussion auch nichts Neues, nur haben sich die Hersteller (bzw. Intel, weil AMD hatte lange nichts zu melden) da noch nicht ran getraut, bzw. bis zur aktuellen Parität keine Notwendigkeit gesehen. Was ich mit allerdings mindestens genauso wünschen würde, wären klarere Linien, was man als Kunde einkauft. Das betrifft nicht nur diesen unsäglichen USB Hickhack, sondern genenrell eine (scheinbare?) Plan- und Konzeptlosigkeit. Des weiteren ist "Der PC" an sich im Prinzip auch am aussterben. Das rührt zum einen daher, weil die Masse sich hauptsächlich für den mobilen Einsatz entschieden hat und zum anderen, weil der leistungsstärkere PC Markt sich fast nur noch um den Verkauf an "Gamer" dreht, bei denen dann ein ganz essentieller Augenmerk darauf liegt, dass die Ding schlimmer leuchten als ne Kirmes und irgendwelche komischen spacigen Designs besitzen, sodass man als potientieller Käufer eines solchen Gerätes allein beim Anblick schon angewidert ist.

Vor 5 Monate
Matthias Schuster
Matthias Schuster

Moore's law hat absolut überhaupt nichts mit dem Erfolg des M1 und dem verringerten Energieverbrauch zu tun. Moore's law spricht von dichteren Transistoren, nicht von Energieverwendung und Leistung, dass kommt dann, je nach Konfiguration von selbst. Das ist etwas anderes, als eine Verdoppelung der Leistung, speziell im Angesicht von M1. M1 ist nicht schneller/energieeffizienter weil es eine niedrigere Nanometer Abmessung hat, sondern weil es viel veralteten Balast abwirft. Stichwort https://de.m.wikipedia.org/wiki/Befehlssatzarchitektur

Vor 6 Monate
JJ W basel
JJ W basel

Was heisst das konkret in Zahlen ? Wenn ein Rack heute ca. 13.5 kW hat. Ich schaetze die Kuehlleistung dafuer derzeit bei ca. 20 kW. Wieviel kW mit denn neuen Chips ?

Vor 6 Monate
JJ W basel
JJ W basel

@Horst Lüning, vielen Dank fuer die Antwort. Die Datacenter werden somit vorraussichtl. In den kommenden 10 Jahren unveraendert bleiben und nicht schrumpfen.

Vor 5 Monate
Horst Lüning
Horst Lüning

Genauso viele kW. Weil das Limit nicht an der Menge an CPUs liegt, die man in die Racks schafft, sondern an der Wärme, die man aus den Racks rausschaffen kann.

Vor 5 Monate
Gerhard Hiemer
Gerhard Hiemer

Ein apple laptop hatte immer einen Lüfter der selten lief. Das wird jetzt noch besser. Wer braucht Windows apple macht x86 auf den apples hat ms noch nie hinbekommen.

Vor 6 Monate
Gerhard Hiemer
Gerhard Hiemer

Hallo Horst, ich freue mich auf deinen ersten Äbbel. Du wirst begeistert sein von OSX.

Vor 6 Monate
Gerhard Hiemer
Gerhard Hiemer

@Horst Lüning Ich finde diese Apple Produkte zwar sehr teuer aber es ist toll das alles funktioniert. Jedesmal wenn ich Windows oder Android anfassen muss ist es für mich eine Qual. Nichts funktioniert, tausende Leute leben davon, ich auch viele Jahre, damit diese Rechner einigermaßen am Leben bleiben. Deshalb verwende ich nur Apple. Alles ist da wo es sein muss. Rechner laufen über Monate ohne Reboot, ohne Registryhacks, ohne Neuinstallation nach einer Festplatte (weil die Lizenz nicht mehr gültig ist) usw.. Backup ist eingebaut, neue Rechner werden von Alten kopiert und alles (fast) ist wieder da wo es vorher war nur auf neuer Hardware. Keine unnötigen Kosten. Muss mich hier als Privatmann in Portugal auch um nicht funktionierende Windows- und Androidrechner kümmern. Weltweiter Unsinn.

Vor 5 Monate
Horst Lüning
Horst Lüning

Wir haben schon 4 solche Geräte im Haus. Ich muss sie warten und integrieren. Nichts für mich. Aber ein Samsung Galaxy Note 10+ in einer DeX kann eine Alternative sein.

Vor 5 Monate
Maje80
Maje80

Danke für dieses super interessante Video 👍😊

Vor 6 Monate
Heiko Wöhr
Heiko Wöhr

Sehr interessanter Vortrag! Habe mit MicroVax die Karriere begonnen, dann hat mir später ein Freund gezeigt, wo das Stanford Univerity Network (SUN) seinen physischen Ausgang genommen hat. Hat nichts geholfen. Eine Firma kam mit "NT" um die Ecke. Wir haben gelacht. Wir hatten Spaß! Besonders interessant finde ich ja jetzt im Moment, dass der heutige Markführer Nvidia seit geraumer Zeit versucht ARM zu übernehmen und sich damit "die" Chip-Designer ins Haus zu holen. Ist noch nicht durch, glaube ich. Bleibt auf jeden Fall spannend. Und die aktuelle Chip-Klemme? Wird die Digitalisierung nicht aufhalten können, zumal sich Intel mit großen Plänen zurück gemeldet hat ))

Vor 6 Monate
Wolfgang Staber
Wolfgang Staber

Vielen Dank für dieses hochinteressante Video!

Vor 6 Monate
Peter Hirt
Peter Hirt

Ein paar Korrekturen. Der M1von Apple verbraucht ein bisschen mehr als 5W ;-) So etwa 1/3 des Intel CISC. Dann die Sekunde ist nicht von der Ruhefrequenz des Herzens abgekupfert, sonder basiert auf einem alten sexagesimal System aufgebaut. Ich schlage vor, die Fakten ein bisschen zu checken im Sinne eines guten Journalisten.

Vor 6 Monate
The Dudelino
The Dudelino

Bemerkenswert ist vor allem auch Apples Preispolitik. Die sind ja eigentlich ein Ultra-Premium-Anbieter mit sehr hohen Preisen, wohingegen die neuen M1-Geräte zu einem Drittel des Preises eine sehr ähnliche Leistung wie ein MacBook Pro für 3K EURO abliefern. Und das ist wirklich beeindruckend. Ich kann auch nach wie vor nicht verstehen, warum Intel nie auf all diese Probleme reagiert hat - alle meine Intel-Macbooks wurden heiß und hatten massive Probleme mit Heat Throttling und das seit bestimmt 5 Jahren. Intel hatte also wirklich genug Zeit gegenzusteuern, bis Apple den Stecker für die Partnerschaft gezogen hat.

Vor 6 Monate
Quack Bruchpilot
Quack Bruchpilot

amd war der Sieger im 1Ghz rennen da bin ich auf amd umgestiegen

Vor 6 Monate
AquaMarineReef
AquaMarineReef

Super Thema sehr interessant, Windows in ARM is vorhanden auf dem Surface PRO X, leider ist Microsoft nicht sehr schnell in der Anpassung aber durch den M1 vom Apple könnte da Bewegung in die Sache kommen.

Vor 6 Monate
Likr666
Likr666

Ryzen 5000 und Intel Core i11 sind durchaus schon wieder im Bereich des M1. Der ist nicht soweit, dass man wirklich von einer Disruption sprechen kann, auch wenn es sehr erstaunlichist, das ARM durchaus überraschend mit dem Weg über die "kleinen" Prozessoren in den Markt vorgedrungen ist. Was den Energieverbrauch angeht, kann ARM die Physik aber auch nicht überlisten und bewgt sich bei den Desktop-Prozessoen auch auf vergleichbarem Niveau. Wie schon damals vor dem Wechsel von Apple auf die günstigere X86-Architektur waren die Geräte der Generation davor vor allem gefühlt ebenbürtig, weil Apple in seinem eingeschränkten Hardware-Universum war und die Software darauf hoch optimiert war, während die WIntel-Welt vor allem mit de Hardware-Vielfalt zu kämpfen hatte, was in sehr vielen generischen und damit langsamen Treibern endete. Ich sehe Intel derzeit stark aus zwei Seiten unter Druck. Die ARM-Prozessoren kommen aus dem Bereich der hohen Stückzahlen mit eher weniger Leistung und sind jetzt gleichauf. AMD war schon immer auf Augenhöhe bzgl. der Leistung und hat mit den Ryzen einen großen Wurf, der mehr Leistung bei weiger Stromaufnahme liefert. Spannende Zeiten, aber vermutlich keine Disruption, sondern ganz normale "Kämpfe" um Marktanteile.

Vor 6 Monate
Max
Max

Viel entscheidender bei der Auslegung als SoC vs diskrete Aufbauten ist nicht die Ausbreitungsgeschwindigkeit (~20cm/ns), sondern die Verzögerungszeit durch die hohe Leitungskapazität und Einschwingzeit durch Reflexionen (zB. am Pin oder Durchkontaktierungen). Da man es bei integrierten Schaltungen mit RC Leitungen zutun hat, ist auch dort die Einschwingzeit nicht vernachlässigbar (Einschwingzeit~Leitungslänge²). Durch Stückelung der Leitung kann man das auf ein lineares Verhältnis bringen, aber ebenfalls auf Kosten von höherem Stromverbrauch und Wärmeentwicklung. Wenn es diesbezüglich einen hohen Benefit gibt, ist er zumindest nicht offensichtlich aus meiner Sicht.

Vor 6 Monate
MaMu
MaMu

Herr Lüning, wenn Sie Ihre alten PCs rauswerfen helfe ich Ihnen gerne bei der Entsorgung. Meine 4 Kinder arbeiten kläglichst auf i3 PCs der 3. Generation und würden sich über ein Upgrade freuen...

Vor 6 Monate
MaMu
MaMu

@Horst Lüning vielen Dank für die Antwort, klingt sehr vernünftig...

Vor 6 Monate
Horst Lüning
Horst Lüning

Wir haben unsere Rechner in der Regel 6 bis 7 Jahre im Einsatz. Der letzte i3 läuft noch bei uns. Wenn im Video-Processing ein Rechner nicht mehr taugt, dann wandert er nach Leistungsbedarf 'abwärts'. Mein i7-930 läuft noch auf dem Praktikanten PC ;-)

Vor 6 Monate
Max
Max

Cray? Haben die nicht Vektormaschinen hergestellt? Ich dachte die wurden eher für wissenschaftliches Rechnen verwendet. Lässt sich nicht 1zu1 mit General Purpose Prozessoren vergleichen denke ich, aber ansonsten recht schlüssig.

Vor 6 Monate
Max
Max

@Horst Lüning Guter Punkt. Das ist schon sehr erstaunlich. Danke für das Video, war sehr informativ

Vor 6 Monate
Horst Lüning
Horst Lüning

Nicht nur Vektoreinheiten sondern auch die ersten Parallelen Rechner. Und man kann durchaus vergleichen. Denn die Prozessoren sind so viel schneller, dass sie sequenziell heute schneller als die damals vektoriell waren.

Vor 6 Monate
hdRageSc2
hdRageSc2

Was verkündete Erich Honecker auf dem X. Parteitag der SED? _"Unsere Mikroelektronik ist nicht kleinzukriegen"_ :D

Vor 6 Monate
Matthias Waldhauer
Matthias Waldhauer

Ich kenne noch den großen Artikel zum gefeierten 1 Mbit-Chip aus der Zeitung.

Vor 5 Monate
Kelly Lin
Kelly Lin

Bei all dem reden kein Wort zu dem Zulieferer von Appel, AMD usw. dem besten Halbleiter Herrsteller mit den modernsten Chips der Welt....ach ja ist ein Asiate da ist der Herr lünning nicht so bewandert ebenso wie bei Akteintipps.... empfehle sich über "Taiwan TSMC" zu informieren.....ps nebenbei Taiwan macht auch noch den besten Whisky der Welt ;-)

Vor 6 Monate
Jank Boettstein
Jank Boettstein

Mit dem Stromverbrauch ist meiner Meinung nach übertrieben dargestellt. Die aktuellen CPUs verbrauchen immer weniger Strom, als Nerd kann man da auch undervolten. Eine Desktop-CPU wird kurzfristig auf 5GHz hochgejazzt, damit die Responsezeiten kürzer sind, entsprechend schnell ist die Rechenaufgabe auch abgeschlossen. Beim Smartphone steht das Stromsparen im Vordergrund. Die nervigen Wartezeiten werden dabei von Grafik-Animationen überbrückt, beim Zoom oder Drehen wird z.B. das statische alte Bild animiert, bis die hohe Auflösung im Hintergrund berechnet ist. Und zumindest mein Smartphone wird mitunter beim Navigieren ziemlich heiß und der Akku, der sonst 2 Tage hält, leert sich in wenigen Stunden. Es ist also eine Frage des Einsatzzwecks. Und gerate in den Datacenter werden die ARM-CPUs kommen, da dort Latenzen kaum jemand stören und die Software oft auf die Daten vom Netzwerk oder gar dem SAN-bottleneck warten muß. Die M1-CPU läuft m.W. auf den "größeren" Geräten auch mit viel höherem Takt als im Smartphone.

Vor 6 Monate
Tom Tom
Tom Tom

Sehr gutes Video 👍 Man beachte auch den Raspberry Pi der für wenig Geld und Strom wirklich beachtliche Leistung hervorbringt.

Vor 6 Monate
Tobias Zupper
Tobias Zupper

Eine traditionelle Bank benötigt 1/500 des Energieverbrauchs einer Bitcoin Bank

Vor 6 Monate
Tom Tom
Tom Tom

@Horst Lüning Gutes Argument.. über die Stromkosten einer Überweisung und den damit in Gang gesetzten Aperillo habe ich mir noch gar keine Gedanken gemacht. 🤔💸

Vor 6 Monate
Horst Lüning
Horst Lüning

Dann fragen Sie mal, wie viel Stromverbrauch eine Bank-Transaktion benötigt? (Wenn im Hintergrund mit den Euros/Dollars gezockt und verbrieft wird und Mega-Konferenzen in den Glastürmen abgehalten werden. Bitcoin ist im Vergleich zu den FIAT-Währungen energiesparend! Es gibt natürlich andere Coins, die sind noch viel besser.

Vor 6 Monate
Peter Schumacher
Peter Schumacher

Mit 640x480 Pixel könnte man nur mit Raspberry und Internet ohne Bilder auskommen. Wir verschwenden so unermesslich viel Energie. Eine Bitcoin Transaktion hat einen Stromverbrauch von einem Jahr eines Einpersonen Haushalts.

Vor 6 Monate
Lutz Kawecki
Lutz Kawecki

Ähm, ich würde zwar auch nicht auf den Rebound von Intel setzen, obwohl ich dieses kurzfristig bereits getan hatte aufgrund technischer Gesichtspunkte, aber man sollte auch Bedenken, dass Intel nicht nur CPUs baut sondern auch Netzwerk -und WLAN Chips. Und bei PCs und Notebooks ist Intel immer noch eine Macht wenn es um integrierte Grafikchips geht. Ich begrüße es allerdings, dass AMD den verkrusteten Monopolismus von Intel aufgebrochen hat. Nur schade, dass ich diesen Trend damals nicht erkannt hatte.

Vor 6 Monate
Lutz Kawecki
Lutz Kawecki

Karussellbremser 😂

Vor 6 Monate
Lutz Kawecki
Lutz Kawecki

Ich dachte, alle 18 Monate verdoppelt sich die Anzahl Transistoren bei gleicher Fläche.

Vor 6 Monate
Horst Lüning
Horst Lüning

Denken Sie dreidimensional. V-NAND und 3D-NAND zeigen, wohin die Reise geht.

Vor 6 Monate
Peter Schumacher
Peter Schumacher

Irgendwann ist Schluss damit.

Vor 6 Monate
S. M.
S. M.

Ist das eine Rolex Explorer II mit weißem Zifferblatt an ihrem Handgelenk Herr Lüning?

Vor 6 Monate
Tobias Zupper
Tobias Zupper

@Horst Lüning  achso die ganzen Fabriken, Geschäfte für die Uhren usw. produzieren unnötig Entropie, die dem Leben nicht dienen.

Vor 6 Monate
Horst Lüning
Horst Lüning

@Peter Schumacher Sie haben KEINE Ahnung und machen sich nicht die Mühe vorher nachzuforschen. Eben mit dem Kauf einer Rolex MACHEN Sie Tausende Menschen glücklich. ROLEX ist ein Stiftung und die Gewinne gehen in die Blindenhilfe. https://youtu.be/iWic8TmsdvY

Vor 6 Monate
S. M.
S. M.

Peter Schumacher Das war nicht negativ gemein, die Explorer II ist eine wunderschöne Uhr und wenn man etwas erreicht kann man sich auch von Zeit zu Zeit etwas gönnen!

Vor 6 Monate
Peter Schumacher
Peter Schumacher

Mit einer Spende hätte Herr Lüning tausende von Menschen glücklich machen können. So wahrscheinlich nicht einmal eine Person, evtl den Verkäufer...

Vor 6 Monate
kgkybb
kgkybb

Also was das Thema Gehirneffizienz angeht, wage ich es zu bezweifeln, dass manche unserer Politiker an einen i5 Prozessor rankommen... Spaß bei Seite. Mal wieder ein sehr interessantes Video Herr Lüning. Ich wünschte mir in Zukunft mehr Tech/HighTech-Content auf ihrem Kanal anzufinden. Weiter so! :)

Vor 6 Monate
Anonymous Commentator
Anonymous Commentator

Naja also den Vergleich zwischen CPU und Gehirn fand ich mehr als schwach. Ein i5 mit ca. 4 oder 5 GHz braucht für eine Addition weniger als 1 Takt pro kern. Das heißt das sind bei 6 Kernen (oder sogar 12 Threads) theoretisch 30.000.000.000 Additionen pro Sekunde. In der Realität sind das aber noch VIEL mehr. Laut dem englischen Wikipedia zu "Instructions per Second" schafft die 9. Generation der Intel Prozessoren (die aktuelle ist 11, also nochmal höher) ca. 11 Instruktionen pro Takt pro Kern und skaliert fast perfekt bis zum i9 hoch. Das heißt also 11ips/core/cycle*6core*5.000.000.000cycles = 330.000.000.000 Additionen pro Sekunde. Das Gehirn schafft im Schnitt vielleicht 0,3 Additionen pro Sekunde (ja bei etwas leichtem gehts schneller aber 423678974+897435 braucht länger, die cpu nicht). Das Gehirn ist dafür in anderen Bereichen besser dabei aber gerade weil sie so unterschiedlich sind finde ich den Vergleich mehr als nur dürftig.

Vor 4 Monate
Peter Schumacher
Peter Schumacher

High Tech ist Quantenkohäherenz, Pauliprinzip,Antisymetrierung der Vielelektronenwellenfunktion bei Anwendung auf belebte Materie. Kurz Lebewesen. Dieser Kanal beschäftigt sich mit toter Materie. Auf dem Mars könnte ich das verstehen. Aber auf der Erde?

Vor 6 Monate
Tutor alive
Tutor alive

Tolles Video! Was sagen Sie zur wirtschaftlichen Situation der Chips? CPUs/GPUs von vor 1-2 Jahren werden teilweise deutlich teurer verkauft als man sie zum Release erhalten hat.

Vor 6 Monate
Matthias M
Matthias M

Hallo Herr Lüning, zum Thema der Strukturbreite: die Werte von 7 und 10nm sind am Ende des Tages viel Marketing, die realistisch kleinsten Strukturbreiten sind etwas höher, ändert aber nichts daran, das Intel aktuell kein Land sieht und eigentlich schon nur noch hoffen kann das AMD einen oder mehrere Fehler macht um wieder aufholen zu können.

Vor 6 Monate
Mibel
Mibel

Was sie über arm sagen, ist schon korrekt aber etwas veraltet. Nvidia hat arm gekauft. Das Lizenz Geschäft läuft noch weiter

Vor 6 Monate
Robert Bachner
Robert Bachner

Noch nicht, da sind noch viele kartellrechtliche Fragen offen und das wird noch mindestens über ein Jahr dauern, wenn es Nvidia überhaupt erlaubt wird.

Vor 6 Monate
Jank Boettstein
Jank Boettstein

Mit dem Teletypeterminal an einer PDP-11. Kenne ich 😂. Wir hatten 128kByte RAM, da konnten 10 Leute gleichzeitig mit arbeiten. Ein wichtiger Aspekt wurde bei der CPU-Entwicklung übergangen. Die Heimcomputer der 80er, C64 und Atari-XL sind die Vorgänger der Smartphones. Diese Rechner hatten eine schwache CPU. Die erstaunliche Show lieferten die Geräte, indem für Grafik, Sound und selbst für die Floppy separate Chips vorgesehen waren. Mit geringem Aufwand (z.B. Sprites) konnten hochperformante, optisch ansprechende Spiele programmiert werden. Die Smartphones arbeiten ähnlich. Der SoC vereint zahlreiche Spezialchips. Grafik, Bluetooth, Wifi, Sound (incl MP3-decoder), Encryption, etc. laufen alle hochspezialisiert. Diese Architektur erinnert mich stark an den C64 und die ersten Smartphones waren von der tatsächlichen Rechenleistung im CPU-Core nicht viel anders als ein C64. Das Problem an diesem Konzept ist allerdings, daß die Hardware bestimmt, was man machen kann. Ein neuer Audio-Codec (z.B. Ogg Vorbis) könnte dann Probleme machen und muß auf einer langsamen CPU nachgeformt werden. Die Video-Codecs sind da ein Beispiel, die sind nur dann schnell, wenn der Grafik-Chip das macht. Dafür kann die CPU mitunter ausgeklügeltere Berechnungen machen, die z.B. die Datengröße drastisch reduzieren. Mitunter muß man ja auf die Hardware optimieren, wenn ein Videoplayer z.B. nicht genug RAM hat oder eine Begrenzungder Bandbreite hat, kann man beim Codieren darauf Rücksicht nehmen. Mein Sony XZ1 ist beim Hashing von Datenströmen 8x Schneller als eine Sparc M9000, weil da einfach der AES-Befehlssatz fehlt.

Vor 6 Monate
Ihsan Dogan
Ihsan Dogan

Lieber Herr Lüning, herzlichen Dank für Ihren Beitrag. Ihre Aussage, dass sich RISC nicht durchgesetzt ist nicht ganz korrekt. RISC steht für für "Reduced Instruction Set Computer" und hat, wie es der Name schon sagt, im Vergleich zum CISC "Reduced Instruction Set Computer" weniger Befehle. Das hat zur Folge, dass in der Produktion für eine RISC CPU weniger Transistoren notwendig sind und weniger Transistoren bedeuten, dass man höhere Taktraten fahren kann. Wenn sie sich zurück erinnern an die Alpha CPU von DEC in den 90'ern, die hatten Taktraten, von denen man in der x86 nur Träumen konnte. Intel CPUs haben ab dem Pentium Pro einen RISC Kern und eine CISC Hülle - die sogenannte Intel Microcode Architektur. Das heisst, Intel baut seit den 90ern praktisch nur noch RISC CPUs und man durchaus sagen, dass sich die RISC Architektur in den 90'ern durchgesetzt hat. Die Microcode Archtitektur funktioniert so, dass man die CISC Befehle in RISC Befehle übersetzt und jetzt merkt man auch den Nachteil der Intel CPUs: Jeder Befehl muss übersetzt werden und dafür sind zusätzliche Transistoren notwendig. Daraus folgt, dass eine Intel CPU für die gleiche Rechenleistung IMMER eine höhere Stromaufnahme hat. Und genau der hohe Stromverbrauch und die damit verbundene Wärmeentwicklung ist das grosse Problem der Intel CPUs. Die heutige Intel CPUs sind immer noch vollständig zum 8086 kompatibel und haben sogar noch Teile der des 8008 drin. Das ist knapp 50 Jahre alte Technik. Das diese Technik Schrott ist, weiss auch Intel und sie haben letzten 30 Jahren mehrere Anläufe unternommen, die x86 Architektur abzulösen. Denken Sie nur an die i860, i960 und zuletzt an Itanium. All diese Versuche sind kläglich gescheitert und Intel sitzt heute auf 50 Jahre alter Technik und wird sie nicht los. Jetzt fragt man sich, warum sich x86 durchgesetzt hat, wenn man doch seit Anfang 90'ern weiss, dass die Architektur veraltet ist. Der Grund ist relativ einfach: Menschen arbeiten mit Applikationen und man benutzt die CPU, welche die Applikation voraussetzt. Weil die fast alles in den 90'er für Wintel war, hat sich dementsprechend Intel durchgesetzt. Es gab in den 90'ern durchaus Alternativen, nur was nützt eine technisch bessere Lösung, wenn meine Applikation nicht darauf läuft? Gar nichts. Die IT Welt hat sich jedoch seit dem grundlegend verändert. Heute ist der grösste Teil der Applikationen in der Business Welt Browser basierend und das hat den Vorteil, dass man völlig unabhängig vom Betriebssystem und halt eben der CPU ist. Man hat nur noch wenige native Applikationen. Das bedeutet, dass eine Umstellung heute wesentlich einfacher ist als vor 15 Jahren. Die ganze Cloud Geschichte hat natürlich dazu auch stark beigetragen und macht eine Umstellung noch einfacher. Zu 7nm: Intel hat immer noch keine 7nm Fabrik und will zukünftig bei TSMC produzieren lassen. Der grösste Vorteil der kleineren Fertigung ist, dass man bei 7nm im Vergleich zu 10nm schlicht und einfach weniger Material benötigt. Intel hat es bis heute den 7nm Fertigungsprozess nicht in den Griff bekommen und das tut Intel richtig weh. Wie sie es im Video erwähnt haben, ist in den letzten 10 Jahren bei ARM richtig was gegangen. Während die ersten iPhones noch Samsung CPUs hatten, hat Apple (glaube ab dem iPhone 4) irgendwann angefangen, eigene SoCs zu entwickeln. Apple hat durchaus einige Erfahrung beim Herstellen von CPUs. Was Apple nun von anderen Herstellern unterscheidet ist, dass Apple genau weiss, was sie für CPUs benötigen und ihre CPUs entsprechend designen. Weiter kommt noch, dass nun Apple nun praktisch eine vollständige vertikale Integration hat und Apple so auch die Profitabilität steigern wird. Als Apple User, freue ich mich schon die Intel basierenden Stromfresser durch ARM Raketen zu ersetzen. Kleines Detail am Rande: Der damalige Apple CPU Chefentwickler wurde später von Tesla angeheuert und er arbeitete dann an der Entwicklung des FSD Chip. Mittlerweile merkt man auch, dass Intel so richtig das Muffensausen bekommen hat. Intel macht Werbung gegen den M1 und somit auch gegen ARM. Der Wegfall von Apple wird Intel nicht weh tun, dafür ist Apple zu klein. Windows läuft aber bereits seit längerem auf ARM. Auch der ESXi Hypervisor läuft auf ARM. Amazon bietet schon länger Cloud VMs auf ARM an. Und jetzt stellen sie sich mal vor was das bedeuten würde, wenn Microsoft ihre Azure Datacenter nicht mehr mit Intel betreibt sondern mit ARM. Wir als Endbenutzer merken das nicht, dass die Cloud Infrastruktur auf ARM läuft, aber Microsoft hat bei gleicher Rechenleistung einen markant geringeren Stromverbrauch und ein geringerer Stromverbrauch führt nicht nur dazu dass die direkten Stomkosten tiefer sind, sondern dass auch weniger Kühlleistung benötigt wird. Die Cloud Provider haben durchaus ein grosses Interesse die CPU Architektur zu wechseln und wenn die mal wechseln, dass wird dann Intel so richtig weh tun. Abschliessend kann man sagen, dass es Intel gleich geht wie der deutschen Automobilindustrie. Man befindet sich auf dem absteigenden Ast.

Vor 6 Monate
Az Eddine
Az Eddine

Für solche Videos sind sie der Beste! Mit ihrer Ausbildung und Erfahrung können sie diese komplizierten Dinge einfach erklären. Daraus kann man dann auch Investment Ideen ableiten👍Danke

Vor 6 Monate
Ironie Muss Bosch
Ironie Muss Bosch

Darjeeling? Den Wisky kenne ich noch garnicht.

Vor 6 Monate
Spike Spiegel
Spike Spiegel

die etwas entferne Zukunft liegt dann wohl beim Quanten Computer. Herr Lüning hat dazu bestimmt schon ein Vid. gehabt.

Vor 6 Monate
Horst Lüning
Horst Lüning

Ja, hier ist es: https://youtu.be/51qozM0dPdU Und der Quantencomputer kann nur bestimmte Klassen an Funktionen superschnell bearbeiten. Reguläre Supercomputer wird es weiter geben müssen.

Vor 6 Monate
0214Enrico
0214Enrico

Die Prozessoren sind in Realität noch kleiner, als dieser Chip, den man sich als Prozessor kauft. Wenn man die Metallplatte löst, dann kommt man an den eigentlichen Chip ran. Das ist beeindruckend wie viel kleiner der Chip ist. Der Apple M1 ist wirklich beeindruckend. Nach langen Überlegen hab ich mir auch ein Macbook Air mit M1 gekauft. Das ist mein erster Mac. Klar gibt es Probleme, aber mit der Zeit wird es besser. Und der Akku ist lächerlich! Über 10h Surfen sind kein Problem. Video bearbeiten macht der Chip mal eben und langweilt sich danach wieder. Und das ganze ohne Lüfter! Das Macbook Air ist absolut lautlos. Immer. Egal was man macht. Er wird maximal Handwarm an der Stelle der Gehäuses, die zwischen Tastatur und Bildschirm liegt.

Vor 6 Monate
0214Enrico
0214Enrico

@Horst Lüning Klar gibt es die. Ich bin jetzt aber eher von den günstigen Prozessoren für den Privatkunden ausgegangen. Hätte ich vielleicht etwas klarer definieren sollen:) Vielen dank für die Videos. Ich habe schon so viel dazu gelernt. Bitte machen Sie weiter so!

Vor 6 Monate
Horst Lüning
Horst Lüning

Es kommt ganz auf den individuellen Prozessor an, wie klein der ausfällt. Es gibt auch richtig große mit über 200mm2.

Vor 6 Monate
CPT CAPSLOK
CPT CAPSLOK

Man kann die Fertigungsgrößen von AMD (von TSMC produziert) und Intel NICHT vergleichen. Hauptsächlich sind diese Angaben sowieso Marketing aber der 10nm Intel Prozess ist etwa ~ TSMC 7nm. Intels Problem ist das sie es nicht geschafft haben ihren 10nm Prozess zu skalieren und somit sind die meisten ihrer Produkt noch auf 14nm+++.

Vor 6 Monate
Poldimaster Copter van Hatred
Poldimaster Copter van Hatred

Nvidia hat oder wird doch ARM kaufen.

Vor 6 Monate
Robert Bachner
Robert Bachner

Nvidia möchte ARM von Softbank kaufen, ist aber bei weitem noch nicht sicher, das wird kartellrechtlich auf jeden Fall sehr schwierig und wird noch mindestens ein Jahr dauern.

Vor 6 Monate
RAIP
RAIP

Leider hat ihnen der Truthahn die Show gestohlen 😂

Vor 6 Monate
Hieronymus A.
Hieronymus A.

10:10 10^1=10

Vor 6 Monate
Hieronymus A.
Hieronymus A.

@Horst Lüning War schon klar! Der Punkt auf der Zeitachse hatte mich zu der Anmerkung getriggert. By the way: Auch die Hintergrundszene von Down under bekommt von mir 'n Daum' hoch!

Vor 6 Monate
Horst Lüning
Horst Lüning

Versprecher

Vor 6 Monate
Jens Langer
Jens Langer

Danke, ich habe mich längere Zeit nicht mit der Materie beschäftigt. Gutes Update. Sofern ich mich richtig erinnere, hatte NVidea vor nicht allzu langer Zeit ARM (Acorn RISC Machines) aufgekauft. Unabhängig davon hat NVidea aber auch eine Entwicklungsabteilung, die sich mit RISC-V -Systemen (das ist das Linux-Äquivalent in der Hardware-Branche, Open Instruction Set) beschäftigt. RISC-V ist ebenfalls ein ganz heißes Eisen. RISC-V.org ist angeblich extra in die neutrale Schweiz umgezogen, damit Geheimdienste sich keine Hardware-Hintertüren erzwingen konnten.

Vor 6 Monate
Speedwagon1983
Speedwagon1983

Ich glaube nicht das die CPUs plötzlich stromsparend werden... das was man beim Stromverbrauch einspart investiert man halt in Takt/Zahl der Kerne/Boost

Vor 6 Monate
Horst Lüning
Horst Lüning

Sie haben die Disruption noch nicht verstanden. Der M1 hat 8 Kerne und eine Taktfrequenz von 3,2GHz bei 5 Watt. Das entspricht einer fetten Intel i7, die das 20-Fache an Energie benötigt. Natürlich wird man die Anzahl an Cores erhöhen. Aber eine 32-Core Mx CPU im zukünftigen iMac wird halt nur 20 Watt benötigen.

Vor 6 Monate
S D
S D

ARM ist auch in Servern angekommen. Amazon Web Services läuft auf selbstentwickelten ARM-Chips. Der A64FX (Prozessor des derzeit leistungsfähigsten Supercomputers Fugaku) basiert auf ARM.

Vor 6 Monate
Werwil69
Werwil69

Danke für diesen spannenden Beitrag! Ich freue mich schon auf die schöne neue Riscwelt. Vielleicht kann man in Zukunft sich den Rechner 3Dimensional wie Lego erweitern und Gehirnähnliche Strukturen schaffen... und am Ende das Hirn damit koppeln. Bedauerlicherweise wird uns Skynet bis dahin überrannt haben... bis dahin frohes und kreatives Schaffen! :)

Vor 6 Monate
Horst Lüning
Horst Lüning

Bei den NVMs macht man das bereits. Die V-NANDs bzw. 3D-NANDs stapeln schon 64 Schichten, um 512GByte auf einer regulären Chipgröße unterzubringen, da das Flächenwachstum durch Formfaktoren und Physik begrenzt ist.

Vor 6 Monate
Karl Besser
Karl Besser

Eine erwähnenswerte Steigerung der Rechenleistung war auch durch die Einführung der Cache-Technik möglich geworden. Der Intel 386 war der Erste mit Cache. Heute bei den Mehrkernern, braucht man die komplexe Cache-Technik immer noch. Was den Leistungsverbrauch pro Gatter angeht, wird dieser über vergleichbare Zeiteinheiten, vermutlich exponentiell abnehmen; aber nie Null erreichen.

Vor 6 Monate
Andreas Roßmann
Andreas Roßmann

Hallo Herr Lüning, Danke wieder mal für Ihr Video! Da wir so ca. ein Alter haben, mal folgendes aus meinen Lebensweg und zur Erinnerung: Ein Z80 von Zilog hatte eine Taktfrequenz von 5 Mhz. INTEL-Prozessoren (8086) waren Mist, (die hatten nur relaiv kleine Sprungweite im Code, ich glaube mich zu erinnern:256 Byte) Damit, mit ZILOG(Z80), haben wir damals alle den RDK (Rolf Dieter Klein) BASIC Interpreter irgendwie gebaut. Mit 2 MB EPROMs. ÜBer Hardware reden wir jetzt mal nicht! ... wird endlos. Und es gab den ZXSpektrum. Wir konnten damals Frequenzen von ... 20 MHz mit dem Oszi irgendwie noch erkennen. UKW-Rundfunk sendet auf ca. 100 MHz. Und heute haben wir Prozessorfrequenzen von XXX GHz. Unfassbar! Und das Moorsche Gesetz lebt weiter! Wer hat gewonnen? ZILOG war es leider nicht! Da soll es aber auch persönliche Zusammenhänge gegeben haben! (Du musst nicht gut sein, aber einen kennen, der Dich gut findet!) Schreibt einer aus der "DDR" P.S. Ja, wir mussten damals Bauelemente und Prozessoren aus den Betrieben entwenden, um was bauen zu können! Und .... Daran ist die DDR dann zugrunde gegangen ;-) An diesen Computer-Freaks.

Vor 6 Monate
Thomas Rossen
Thomas Rossen

Grundsätzlich ein interessantes und gelungenes Video. Ich glaube an die ganz große Disruption noch nicht. Wie Sie selbst angemerkt haben läuft haufenweise Business-Software noch auf Cisc und bis SAP auf ARM läuft da vergeht sicherlich noch Zeit. Noch schlimmer bei irgendwelcher Nischensoftware. Und Ich muss sie leider hinweisen, Sie haben tatsächlich etwas vergessen, nämlich die fortgeschrittenen Energiesparoptionen! So haben insbesondere die Smartphones besondere Talente runterzutakten. Stichwort Big-Little, da werden sogar die leistungsfähigen CPU-Kerne ganz abgeschaltet und das ganze System läuft nur auf extra Energiespar-Kernen. Muss das System jedoch arbeiten, steigt der Verbrauch exorbitant. Von Nix kommt auch beim Handy nix. Da stellen Sie dann ganz schnell fest, die Chips können Sie nichtmal dauerhaft auslasten, weil die Wärme gar nicht abtransportiert wird. Dementsprechend leeren sich dann auch die Akkus..... Das Haupttalent der ARMS ist es die Leistung nur dann punktuell freizusetzen wenn Sie wirklich gebraucht wird, aber dann brauchen Sie trotzem Strom. Umgekehrt, Ich habe Mitte letzten Jahres ein neues Notebook erworben: So ein kompaktes mit dem Ryzen 4000. Der ist nicht nur sehr leistungsfähig, sondern taktet auch ganz konsequent runter wenn die Leistung nicht gebraucht wird. Fazit: Obwohl der Akku bei einem 14 Zoll ja nicht so groß ist macht der normales tippen den ganzen Tag mit, auf einer Akku-Ladung. Selbstverständlich ohne das dabei der Lüfter anspringt. Selbst Videokonferenz mit zig eingehenden Videos laufen über viele Stunden... Ich habe Zuhause noch einen alten PC mit Intel Ivy-Bridge, übertaktet auf 4.3 GHz. Was soll Ich sagen, klar hat der PC die dicke Grafikkarte aber CPU-technisch ist der kleine Laptop mit seinem mini Stromverbrauch schneller. Ich weiß jetzt nicht wie das bei den speziellen Server-Chips ist, aber auch die Desktop-Ryzen können runtertakten wenn die Leistung nicht gebraucht wird. Ich finde es gut das Apple da diesen Schritt gemacht hat. Intel hat leider gerade zu kämpfen aber AMD wird den Ball sicherlich aufnehmen und daran werkeln konkurrenzfähig zu bleiben.... Vielleicht steht irgendwann am Ende sogar mal ein ganz neues System, was alte Zöpfe abschneidet und mobile und stationäre Software zusammenführt. Es bleibt spannend.

Vor 6 Monate
Chercht
Chercht

Horst Lüning lobt Apple... dass ich DAS noch erleben darf! Meiner Meinung nach zeichnet den "echten" Techniker aus, dass er einen Überblick über alle oder zuminest mehrere Systeme und Anbieter hat. Bei allem Apple Bashing muss man auch immer in der Lage sein, neutral zuzuschauen und zu sehen, was es so an Neuentwicklungen gibt. Ich verwende zu Hause noch immer einen PC, allerdings kürzlich mit Ryzen CPU ausgestattet, weil ich auch gerne mal zocke. Das ganze ist im Wohnzimmer an Heimkinoanlage und TV angeschlossen und ich kann auch Youtube damit schauen. Für unterwegs tut es mein 10 Jahre altes MacBook Pro mit MacOS High Sierra und als Handy benutze ich nachwievor gern ein iPhone, einfach weil ich die Software besser mag. Es bedarf natürlich deutlich mehr Hingabe, wenn man sich sowohl in Windows, MacOS, Linux, Android, iOS, ChromeOS usw gleichermaßen einarbeitet... irgendwo muss man dann doch die Grenze ziehen. Ich bin gespannt, was Apple noch mit seinen ARM Chips anstellt, ich denke, da wird noch eine ganze Menge kommen.

Vor 6 Monate
Chercht
Chercht

@Horst Lüning Es gibt einige Punkte, wo das auch angebracht ist. Ich war ehemals als Techniker bei einem Apple Service Provider angestellt und habe MacBooks repariert... auch da hat man sich nicht nur positiv mit den Kollegen über Apple ausgetauscht, sondern einige Konstruktionen haben einen auch zur Weißglut gebracht. Das gehört halt dazu. Man kann ja Sachen immer differenziert betrachten.

Vor 6 Monate
Horst Lüning
Horst Lüning

Ich bleibe aber auch beim Bashen von Apple, da wo man es machen muss. Würden Sie sich einen Rollensatz für den Mac Pro für 849€ kaufen? https://www.apple.com/de/shop/product/MX572ZM/A/apple-mac-pro-rollen-kit

Vor 6 Monate
Stefan Bayer
Stefan Bayer

Ein wichtiger Begriff stellt in diesem Zusammenhang noch "Ubiquitous Computing” dar. Durch die vielen Disruptionen in den Bereichen Rechenleistung (CPU), Speicher (SSD, RAM), Grafik (GPU), Kameras, Algorithmen, Frameworks (für Funktionen z.B. Apple ARKit, HomeKit, HealthKit), Application Programming Interfaces (APIs als Zugang zu für Funktionen und den Austausch), Plattformen (APP Stores), E-Learning (Youtube als Schule 2.0), Clouds (Amazon Web Services, …)bessere Netzwerkinfrastrukturen (Terra- und Gigabyte statt Mega- und Kilobyte), (und weitere Bereiche) werden Innovationen häufiger und beeinflussen und verstärken sich gegenseitig. Dadurch finden in immer kürzer werdenden Zeitabständen immer mehr Innovationen/ Disruptionen statt, was langfristig zum als Singularität bezeichneten Punkt führen wird. Ubiquitous Computing ist dabei, dass langfristig in jeglichem Gegenstand ein Embedded Mikroprozessor Anwendung finden wird, sodass Computing (“Berechungen”) überall stattfinden werden. In diesem Zusammenhang hat Andreessen Horowitz den Satz “Software is eating the world” im Jahr 2011 verwendet . Im Grunde kann man sich darüber jegliche Veränderung der letzten 20 Jahre erklären. In den nächsten Jahren werden sich durch die vielen Disruptionen weitere Brachen maßgeblich wandeln (nicht nur die Autoindustrie). Wichtige Folgen und Trends werden die Automatisierung, Einsatz von Künstlicher Intelligenz (Neuronale Netzwerke), 3D-Druck (Organe und Bauteile), Virtuelle Welten (vgl. Film Ready Player One, auch zur Arbeit), die Dezentralisierung durch Blockchains (Wallets in der Finanzbranche) und das Autonome Fahren darstellen. All das führt dazu, dass wir in den nächsten 10 Jahren so viele Innovationen und Disruptionen wie in den letzten 100 Jahren sehen werden. Unter diesen Aspekten sollte Jeder seine Arbeitsstelle und Investments analysieren und sich auf die kommenden Veränderungen bestmöglich vorbereiten und einstellen.

Vor 6 Monate
Horst Lüning
Horst Lüning

Da habe ich 2016 ein Video d'rüber gedreht: https://youtu.be/tKNViXSvg7Q

Vor 6 Monate
S D
S D

Intel experimentiert wohl auch in der dritten Dimension, also mehrschichtige dies. Man darf gespannt sein ob das was wird.

Vor 6 Monate

Nächster

EPIC ADDED NEW MYTHICS! (secret update)

14:43

let's talk about the met gala looks

21:09

Billionaire Mathematician - Numberphile

18:39

Billionaire Mathematician - Numberphile

Numberphile

Aufrufe 3 300 000

Turbo, Tempo, Tesla - Elon Musk in Brandenburg | Frontal21

44:00

Das beste Elektroauto der Welt - Tesla?

32:16

Das beste Elektroauto der Welt - Tesla?

Horst Lüning

Aufrufe 39 000

Body matching descripton of Gabby Petito found in Grand Teton

5:43

Ich mache endlich HARRY POTTER!

5:33

LEA - Parfum (Official Video)

3:07

Was ist mit MARVINVLOGT Passiert....😱

1:59

Was ist mit MARVINVLOGT Passiert....😱

MarvinVlogt - Brawl Stars

Aufrufe 69 019

LISA(리사) - LALISA @인기가요 inkigayo 20210919

4:07

LISA(리사) - LALISA @인기가요 inkigayo 20210919

스브스케이팝 / SBS KPOP

Aufrufe 4 478 100