You're not connected to the Internet.
Galaxus Logo
Opinion Gaming5521

Intel F-processors: end of the road for integrated graphics?

Intel F-processors come with their on-chip graphics unit disabled. Strange, as F-processors aren’t much cheaper than their non-F cousins. Is Intel planning on fully removing integrated GPUs for their desktop Core-i series?

Since the first Core-i series launched in 2010, Intel has almost always integrated GPUs in their CPUs. At the recent CES, the chip developer announced processors with an added «F». These chips will still have integrated graphical units, these will be either deactivated or defective, however.

  • Core i5-9400F (LGA 1151, 2.90GHz)
  • Core i5-9400F (LGA 1151, 2.90GHz)
CHF 199.–
Intel Core i5-9400F (LGA 1151, 2.90GHz)
1

Availability

Mail delivery

  • Only 1 piece(s)
    in our warehouse

Collection

  • Basel: tomorrow at 12:30
  • Bern: today at 17:00
  • Dietikon: today at 13:30
  • Geneva: tomorrow at 14:00
  • Kriens: today at 13:00
  • Lausanne: tomorrow at 12:30
  • St Gallen: tomorrow at 13:00
  • Winterthur: tomorrow at 12:00
  • Wohlen: today at 11:00
  • Zurich: today at 17:30

PickMup

If ordered immediately.
Information subject to change.

View details

Core i9-9900KF (LGA 1151, 3.60GHz, Unlocked)
CHF 546.–
Intel Core i9-9900KF (LGA 1151, 3.60GHz, Unlocked)

Availability

Mail delivery

  • approx. 5 – 7 days

Collection

  • All locations: approx. 3 – 5 days

If ordered immediately.
Information subject to change.

View details

Less bang for your buck

Essentially, F-processors are completely normal ninth series Core-i CPUs. If you’re annoyed that Intel is selling these chips at what is basically a slightly lower or equal price than their non-F counterparts, then you’re not alone. I’m the exact same. Anyway, Intel’s pricing isn’t what this article’s about. I’m wondering why the Sultan of semiconductors from Santa Clara simply deactivated the GPUs.

On one hand, shifting a whole line of production to GPU-free processors is not easily justifiable. On the other hand, however, functioning CPUs with defective GPUs could be sold for profit. Instead of gathering dust in some warehouse. Intel is still battling difficulties in manufacturing their 14 nm++ chips. The increase in production that results from adding another suffix to the end of a processor isn’t something the company should frown at.

Revenue is the central reason for the existence of F-processors. It gains even more weight when considering the fact that Intel is planning on entering the graphics card market. An exact entry date is unknown, but 2020 seems like a safe bet. You can’t game with on-chip graphics drivers, of course. However, even if you’re an office user, you’ll still be forced to add a dedicated graphics card to your PC. A new avenue for Intel, as the CPU market is getting more and more competitive. Due to the risk of losing stocks, especially in the mobile sector, Intel is expected to jump at the opportunity to lessen their losses.

ARM: the kingslayer?

Think of Apple what you will. You can’t claim they don’t go with trends. The tech giant is adapting another next year: Apple will begin using ARM chips instead of Intel. Another important buyer for their mobile CPUs Intel will lose. Microsoft is also working on making Windows more ARM-friendly. Windows notebooks could foreseeably work with ARM processors. Intel definitely needs to think about new ways to gain revenue.

Tech YouTuber Coreteks has summarised Intel’s ARM problem in this highly-informative video.

Even if I don’t agree with everything Coreteks is saying, he’s still plausibly explaining why ARM is the future of notebooks and cheap PCs. With the advancements ARM chips have made in the last ten years, they can certainly take on Intel’s mobile processors – they’re also more efficient and much cheaper.

According to the IDC’s Personal Computing Device Forecast 2019-2023, notebooks and mobile workstations comprise 42.4 percent of all Personal Computing Device Market Shares in 2019. Desktop PCs are only at 22.6 percent. Intel currently holds between 75 and 80 percent market share. If notebooks and mobile workstations disappear, it’ll be one hefty financial blow for Intel.

On top of that, Intel is also losing market share to AMD, and not just in the desktop sector. Intel is under extreme pressure to find new markets. The lucrative graphics card business seems like their best bet. Why shouldn’t the average Joe buy a dedicated graphics card – an Intel one at that – for his PC? Bundled deals would be the perfect fit for this situation.

Integrated graphics have given all they’ve got

F-processors are only just the beginning. I believe that Intel won’t add on-chip graphics units on their desktop processors from now on. Still, it’s wrong to paint Intel as this big bad company. Processors without graphical capacities are standard at AMD. And Red Team has been selling graphics cards for years now.

What do you think? Am I blinded by my presumptions and expecting too much of Intel? Or are you of the same mindset? Let me know in the comments.

These articles might also interest you

Computex: AMD Ryzen 3000 with up to 12 cores
News & TrendsComputing

Computex: AMD Ryzen 3000 with up to 12 cores

digitec at Computex 2019
News & TrendsGaming

digitec at Computex 2019

Computex: how to passively cool a i9-9900K
News & TrendsGaming

Computex: how to passively cool a i9-9900K

Avatar

Kevin Hofer, Zurich

  • Editor
From big data to big brother, Cyborgs to Sci-Fi. All aspects of technology and society fascinate me.

55 comments

3000 / 3000 characters

User Nobody555

Verstehe nicht ganz warum hier so negativ über integrierte Grafiklösungen geschrieben wird als wären diese nutzlos. Bei einem Gaming-PC klar... aber das ist wohl der kleinere Anteil von PC's gemessen an der Gesamtzahl.

Bei einem Office/Multimedia PC macht die (relativ schwache) integrierte Grafik absolut Sinn. Eine Komponente weniger verbaut und da die CPU's ohne Grafik dann nur minimal günstiger sind, kostet das System am Ende auch mehr.

Daher:
- CPU's mit defekter GPU trotzdem verkaufen/nutzen mit der Bezeichnung "F" finde ich gut.
- In Zukunft evtl. gar keine CPU's mit GPU mehr finde ich schlecht.

25.04.2019
User beginner99

Auch bei gaming PC macht das Sinn, zb wenn die Karte defekt ist und man auf eine neue wartet, kann man den PC dennoch brauchen. Oder wenn man die alte 1- 2 Monate vor dem release der neuen verkauft usw. Integrierte grafik ist gut zum überbrücken.

26.04.2019
User ExtraTNT

jo, die intel hd ist echt nützlich, hab ein notebook mit einer Nvidia 820m, leider ist nvidia irgendwie nicht in der lage funktionierende treiber zuverfügung zu stellen, die opengl-lib funkt nicht richtig... sobald ich den treiber für die karte installiert habe, crasht mir das gui bei jedem start mit einem opengl error... jo, das heisst dann in den commandlines den treiber wieder raus werfen... das letzte mal habe ich dann ganz neu aufgesetzt, das gaze läuft jetzt ohne diese karte, brauche sie ja eigentlich auch nicht, um ein bisschen zu coden reicht eine intel hd und zocken geht unter linux auch nur bedingt, zudem habe ich dafür ein pc mit windofs (und 2x amd :D)... jo, generell ist die intel hd eigentlich ziemlich ausreichend für die meisten leute, solange man keine KI hat, keine krassen sachen berechnet oder zockt, reicht die... und für alle, die auf die hd verzichten können / wollen, die haben jetzt neu die F prozis, sind wohl meistens solche, die ein fehler an der intel hd haben...

26.04.2019
Answer
User Anonymous

Intel F Prozessoren als Titel und ein Bild eines AMD Prozessors? Bin ich der einzige dem das aufgefallen ist?

25.04.2019
User Midni9ht

Jetzt wo du's sagst... 😅

25.04.2019
User Eigor

AMD holt ja langsam auf und bekommt dadurch auch immer mehr "Bildanteile"! XD

25.04.2019
User Anonymous

😂

25.04.2019
User Kevin Hofer

Mist, erwischt! ;)

25.04.2019
User ExtraTNT

hab das bild gesehen, habe gedacht nice es geht wohl um das verkaufsdatum der 3000er, lese den titel und musste ein bisschen lachen...

26.04.2019
Answer
User Elvetós

Ich will hier nicht den Schlaumeier spielen, jedoch der erste Satz des Artikel stimmt hinten und vorne nicht.
Hier ein Link mit den Modellen die keine integrierte Grafikeinheit haben.

intel.de/content/www/de/de/...

Aber verstehe was damit gesagt werden wollte. Normalerweise hat Intel eine integrierte GPU in ihren CPUs.

25.04.2019
User Kevin Hofer

Hi Elvetós
Merci für deinen Kommentar und dein aufmerksames Lesen. Du hast selbstverständlich recht. Habe jetzt den ersten Satz mit «selten» angepasst.

25.04.2019
Answer
User Lewk

wenigstens eine "richtige" Gamer Variante. :)

F

25.04.2019
User mova

Bin wohl der einzige, der integrierte Grafik im cPU brauchbar findet. Seid Ca. 8-9 Jahren. Ich spiele nicht, muss nur damit arbeiten.

25.04.2019
User 86LukasH

Nein. Für Büro-Rechner und Homeoffice sind die integrierten Grafikeinheiten absolut ausreichend. Daher hat AMD beispielsweise auch ihre APU-Linie, und auch Intel wird wohl nach wie vor genau für diese Fälle CPU's mit Grafikeinheit anbieten... nur wohl nicht mehr generell.

26.04.2019
Answer
User Alex2600

Verstehe ich das richtig? Intel verzichtet auf eine integrierte Grafiklösung, nur damit sie einen weiteren Grafikchip verkaufen können?

25.04.2019
User elmatador

Wird einfach die Absätze von AMD erhöhen. Tja die sagen leise Danke.

25.04.2019
User Janis1010

Naja, AMD macht wie im Artikel erwähnt genau das gleiche, also sehe ich das nicht wirklich als Problem. Wirklich viel verlieren wir dadurch auch nicht, denn quasi alle Desktop Computer setzen auf eine dedizierte Karte (Ausser evtl. das "Backup", wenn die dedizierte Grafikkarte ausfällt).

Mein Prozessor hat auch integrierte Grafik... habe ich es jemals verwendet? Ich glaube nicht... ;)

25.04.2019
User reinhold86

@Alex2600: Wenn Sie den Preisvorteil Weitergeben kann man davon ja profitieren, denn es macht halt z.B. als Gamer keinen sinn eine CPU einzubauen die eine GPU Einheit drin hat.

25.04.2019
User Anonymous

Nö. Intel hat defekte DIE's. Defekte DIE's will man verkaufen. Ne GPU hat viel Cache und Cores, Wahrscheinlichkeit ist hoch, dass ein Prozessor also da defekt ist. Wieso den Prozessor nicht doch verkaufen? Alles Andere, naja.... ;)

25.04.2019
User beginner99

Nein, Sie verstehen das falsch. Da Intel es immer noch nicht geschafft hat ihren 10nm Prozess zum laufen bringen, ist jetzt alles auf 14nm und das führt zu Engpässen. Intel hat selbst gesagt, das es einen Engpass in der Validation der CPUs gibt. Deshalb verkauft Intel jetzt einfach welche mit der integrierten GPU deaktiviert, dann muss diese nicht validiert werden.

26.04.2019
Answer
User samsacha

Haha, so kann man auch sein Ausschuss verkaufen xD
Ein Gamer braucht diesen ja eh nicht, aber ich hätte gerne ein CPU ganz ohne von Intel. Schade ist der 9900K nicht ganz ohne. Aber ich kauf mir kein Ausschuss^^

25.04.2019
User chrisveyup11

Die F Variante LOL
F... den Konsumenten, lustig wie Intel sich selbst ins Abseits manövriert. Ich hätte es ja noch Verstanden wenn der Preis der F Variante ein Drittel tiefer wäre, aber dem Konsumenten eine Cpu zu Verkaufen mit deaktivierter GPU weil man Produktions-Schwierigkeiten hat, ist mehr als Frech und zeugt von der Arroganz dieser Firma. Von wegen man kann mit Onboard Grafik nicht Gamen , AMD hat das im Griff mit den 2200G und 2400G, da geht schon ordentlich was(ITX). Mein Fazit ist Intel die fetten Jahre sind vorbei.
PS: An die AMD Hater, nein ich bin eigentlich kein AMD Fan und habe die letzten 15 Jahre immer Intel verbaut aber das wird sich ändern!

26.04.2019
User Adrian79zh

Sehe ich auch so, AMD hat die Hausaufgaben gemacht und Onboard Karten haben auch ihre Vorteile, Bsp. weniger Stromverbrauch...

26.04.2019
User Super00

Den "F*** you customer" Teil, den Intel mit F suggeriert, habe ich erst jetzt gecheckt :D Wären die F(U) Modelle günstiger könnte ichs verstehen, aber so ists einfach daneben...

09.05.2019
Answer
User Anonymous

Sry, aber ARM CPU's benötigen für dieselbe Leistung dieselbe Leistung. Es ist nicht mehr so, dass diese konsequent weniger Strom ziehen - ausser wenn se klar weniger Leistung bringen... Dieses Gerücht mit Apple gibt es seit Jahren, ob sie es denn wirklich machen ist ne andere Sache... Klar haben die ARM CPU's mittlerweile ne passable IPC, aber auch nur wenn man sie selbst entwickelt. Die Idee dürfte für Apple also eher sein, möglichst die bereits in die Entwicklung der CPU gesteckten Kosten zu amortisieren und eine einheitliche Systemlandschaft zu schaffen.

25.04.2019
User Anonymous

Aja, und wenn jetzt irgend n Pfosten mit Geekbench Vergleichen kommt... BITTE NICHT... :D Erstens skalieren die ARM Designs nicht bei (Annahme) über 3GHz, die TDP ist nicht der einzig limitierende Faktor und die Leistung ist bis auf wenige Fälle immernoch massiv schlechter...

25.04.2019
Answer
User Anonymous

"Bei AMD sind Prozessoren ohne Grafikeinheit Standard."

Das stimmt so nicht und es sollte erwähnt werden, dass AMD gewisse CPU Modelle mit integrierter Grafikeinheit anbietet, ihr verkauft die sogar:
AMD RYZEN 5 2400G (AM4, 3.60GHz, Unlocked)

Warum dies in diesem Artikel fehlt ist mir schleierhaft.

26.04.2019
User Argoth64

Danke!

Auf so einen Kommentar habe ich gewartet.
Der Verfasser hat noch einiges an Nachholbedarf was aktuell und zukünftig für Chips von AMD angeboten werden. Für "High-end" bzw. CAD Rechner gibt es Modelle ohne Grafikeinheit und für Kompaktlösungen und Notebooks (HP Elitebook 700er Serie z.B.) gibt es G/U Modelle.
Es gibt viele Einsatzmöglichkeiten für beide Varianten... beispielsweise hat ASRock die iBOX-R1000 veröffentlicht für den industriellen Einsatz, spezifiziert für Raumtemperaturen bis 50°C (lüfterlos!).

Noch nebenbei sind spielen die integrierten Grafikeinheiten von AMD in einer völlig anderen Liga als die von Intel...

26.04.2019
User Jan Heidenreich

Etwas als Standard zu bezeichnen bedeutet nicht, dass dies dann übergreifend auf komplett alle Produkte gelten muss. Die Topseller 2700X / 2600X / 2600 sind alle ohne Grafikeinheit und aus der «normalen» Serie. Den Prozessor den du nennst, ist aus einer anderen Serie, was man am «G» erkennt. Deshalb ist die Aussage von Kevin aus meiner Sicht korrekt.

26.04.2019
User Anonymous

Trotzdem finde ich das Outro extrem unpassend unter dem Titel "Integrierte Grafiklösungen haben ausgedient" und dann AMD referenzieren, wenn doch AMD genau diese Art von CPU mit den Ryzen 3 & 5 neu lanciert hat!

Das passt für mich als technisch versierter Kunde einfach nicht, und da bin ich bestimmt nicht der einzige.
Anstelle hier weiterzudiskutieren würde ich einfach den Artikel updaten und alle haben etwas davon :-).

26.04.2019
User Kevin Hofer

Hi Anonymous
Merci für deinen Kommentar. Wie Kollege Jan bereits gesagt hat: Die Topseller sind alle ohne GPU und deshalb nenne ich diese Standard. Wie's bei Intel momentan Standard ist, dass die GPU drauf ist. Zudem spreche ich im Artikel auch integrierte GPUs bei Desktop-Prozis an.

26.04.2019
Answer
User Damoclash

Nur eine kleine Korrigenda bei der Einleitung: "Dabei sind die F-Prozessoren nicht wirklich günstiger sind als ihre Nicht-F-Pendants" -> da ist ein "sind" zuviel ;)

just my 2 cents...

25.04.2019
User Kevin Hofer

Hi Damoclash
Merci für deinen Kommentar. Ist gefixt.

25.04.2019
Answer
User JTR.ch

Intel mag evt. so verfahren (glaub ich noch nicht so richtig) aber AMD mit ihren APU wird diese nicht aufgeben ua. treiben sie jede Konsole an. Und ARM und Notebooks? Ist das Problem mit der x86 Kompatibilität und es treten schwierige Lizenzprobleme bei einer Emulation auf.

25.04.2019
User Anonymous

Intel wird es evtl wie AMD mit "APUs" machen

25.04.2019
Answer
User tamer.oezmacun

press F to pay respect... haha xD

26.04.2019
User Midni9ht

Wäre schade, denn für Maschinen, die nichts anderes tun als virtuelle Umgebungen bereitzustellen, ist es dann blöd, wenn man dafür extra nochmal eine GPU organisieren muss. Da sind die iGPUs schon sehr praktisch und zudem auch fast immer our of the box kompatibel mit gängigen Distros.

Bei Prozessoren, die man hauptsächlich in Workstations oder Gaming-PCs findet, macht ein Verzicht aber durchaus Sinn.

25.04.2019
User Adrian79zh

War Jahre mit Intel zufrieden, doch kürzlich neues Notebook gekauft und in der Preisklasse (i7 Gen7) nun AMD gewählt. Da HDMI 2.0 mit dem Ryzen Vega onboard schon unterstütz wird und das ist für 4K/60Hz nötig. Da hat AMD die Nase vorn. Denke nicht das eine Intel Grafikkarte den Preis wert sein wird, evt. wie Nvidia, nur Marketing. Nach AMD wird es evt. ein ARM sein, je nach tech. Specs, halber Stromverbrauch und gleiche Leistung hört sich schon gut an.

25.04.2019
User Anonymous

Welches Notebook ist das denn? Ich suche auch ein AMD Notebook.

26.04.2019
User Adrian79zh

z.B das HP EliteBook 755 G5 oder ähnlich... Schade dass die Slim Dok nicht passt. 4K/60Hz mit HDR kein Problem, sofer der Bildschirm das packt (BenQ PD2700U).

26.04.2019
Answer
User Anonymous

Intel bittteeee niiiccchhhtt. Ich hofe Intel läst die IGPU auch in den Prozessoren im oberen Ende und macht nicht so wie AMD lower end APUs. Ich war schon bei so manchen Build froh, dass die Interne Gradikeinheit mir ein Bild gezeigt hatte und ich so wusste, dass da was an der GPU nicht stimmt.

25.04.2019
User Anonymous

Hmm Schreibfehler könnt ihr behalten ✌😁

25.04.2019
Answer
User martin1974

Ich möchte gerne energiesparsame Bürodesktoprechner bauen können. Ich hoffe, es gibt weiterhin irgendeine Möglichkeit ohne grosse, teure und leistungshungrige GPU.

25.04.2019
User peterrohrer

Natürlich gibt es das, AMD hat zu dem Zweck die Athlon 2xxGE (35W, wenn es sehr günstig sein soll), Ryzen 3 2200G und Ryzen 5 2400G (65W, mehr CPU und Grafik-Leitung) im Angebot. Die Ryzen gibt es auch als GE-Version mit 35W, leider sind die aber im Einzelhandel schwer zu kriegen.

02.05.2019
Answer
User Anonymous

„So könnten künftig auch Windows-Notebooks mit ARM-Prozessoren laufen.“
Gibt es schon. Sind noch nicht wirklich toll, aber es gibt sie ;)

26.04.2019
User mfsplane

Das ist ja eine AMD Prozessor auf dem Bild oder haben die F Prozessoren andere Pins ?

26.04.2019
User der_Graf

Ich finde es sehr schlecht, wenn in Zukunft auch Intel auf die GPU im CPU verzichtet will. Klar Intel hat schon seit langem vor, eigene dezidierte GPUs zu verkaufen. Wie AMD dies tut. Ich sehe aber gerade bei Gaming-PCs das grösste Problem wenn wir keine GPU in der CPU mehr haben. Denn was habe ich bisher gemacht, wenn der Screen mal doch schwarz blieb. Klar den alten Screen aus dem Keller mit VGA oder DVI direct ans Motherboard gehängt (Heute ja nicht mal mehr nötig, da viele MB's ja sogar ein HDMI-Ausgang haben) um so wenigstens Booten zu können und testen ob es die GraKa war die abgeschmiert ist, das Motherboard (Anschlüsse) etc etc. So hatte man wenigstens noch einen "Service-Mode". Ich denke in Zukunft kann man dann einfach eine Komponente nach der anderen Kaufen und hoffen das Problem liegt an der ersten Komponente die man ersetzt.

26.04.2019
User kigo

das thema ist in der tat sehr spannend. wenn ich heute gefragt werde welches gerät mehr leistung hat, weiss ich fast nicht mehr was ich sagen soll. wenn ein smartphone einen acht-kern-prozessor verbaut hat und problemlos UHD auflösen kann. da ist ein office-/desktop-pc aufwändiger, teurer und - wie der artikel schön umschreibt - nicht unbedingt leistungsfähiger als ein smartphone.

ich finde es gut dass dieser umstand nun auch den herstellern bekannt ist. denn wenn ich schon viel geld für einen PC ausgebe (gaming), dann sollte er sich auch von anderen geräten - besonders von portablen - abheben.

in dem sinne danke für die berichterstattung, vor allem der erläuterung der kommenden CPU generation.

26.04.2019
User adamdevine

Nice article.It helps me alot. My B.Tech project is in this field. Thank you so much

26.04.2019
User Arbter

Etwas was ich nicht ganz verstehe: wenn man bei einem CPU die Integrated Graphics deaktiviert, erhält der CPU an sich selbst, dann nicht minim mehr performance?

08.05.2019
User francesco.varrato

I've a NUC with the G Intel processor, meaning that AMD GPU is onboard, not a separated card. I can see at least three reasons for the move of disabling the integrated GPU: (1) divide and conquer mentality, as many people don't even need a GPU for daily tasks, and Intel can charga a plus for it; (2) to strengthen the G proposition, by offering better graphic performances to the ones who actually need it, actually simplifying the offering, as many people don't really care about the HD 620 or HD 620 etc.; (3) they have no more ideas on how to couterbalance SnapDragon, Kirin, Exynos, Mediatek, etc. and the respective antennae lineups (don't forget that antennae are also manifactured by chip makers).

14.05.2019
User aligator1337

Verstehe überhaupt nicht, dass man die integrierte Grafikeinheit noch weiterhin einbaut aber deaktiviert. Haben wohl keine Lust in neues Produkt Design zu investieren aber Käufer zu bestrafen. Sausieche.

25.04.2019
User terabyte

Naja, Kevin erwähnt ja einen sehr guten Grund dafür im Artikel: Man kann Chips verkaufen, bei denen die Grafikeinheit defekt ist. Diese wären andernfalls ein Totalverlust. Aus Businesssicht kann ich das daher sehr gut verstehen. Und aus Usersicht sparst du dadurch ein paar (wenn auch wenige) Franken.
Ich persönlich brauche einen integrierten Grafikchip sowieso nur für Mobilprozessoren. Auf dem Desktop bringt mir als Gamer ein integrierter Grafikchip rein gar nichts, da ich sowieso eine dedizierte Grafikkarte habe.
So viel ich weiss ist auch schon seit längerem bekannt, dass Intel (nächstes Jahr?) in das Grafikkarten-Geschäft einsteigen will. Von daher macht das alles Sinn.

25.04.2019
User Anonymous

Seit Raja bei Intel ist, träumt man davon... Naja, I740 anyone? Larlabee anyone? Aligator1337, hast Du eine Ahnung was eine Maske zur Beleuchtung kostet? Da kannst Du aber ein paar hunderttausend CPU's mit deaktivierten GPU's für herstellen... :D

25.04.2019
Answer