Intel bringt vierte Generation der Core-Prozessoren

Intel hat soeben den offiziellen Startschuss für die Einführung der vierten Generation der Intel Core-Prozessoren gegeben, die auf der neuen "Haswell"-Architektur basieren. Die Prozessoren sollen mehr Leistung, vor allem im Grafikbereich, bei ... mehr... Intel, Haswell, Intel Core i7 Bildquelle: Intel Intel, Haswell, Intel Core i7 Intel, Haswell, Intel Core i7 Intel

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Könnten also Ultrabooks ohne nVidia Grafikkarten erscheinen, wenn Haswell eh schon alles erledigt? ...
 
@algo: es gibt ja bereits Ultrabooks ohne dedizierte nVidia-/Radeon-Grafik. Allerdings habe ich mein Ultrabook (Zenbook UX31) wieder eingetauscht, da mir die Leistung der HD4000 einfach zu gering war. Mit der nVidia 620M schaffe ich nun Path of Exile in Full-HD mit Kantenglättung in doppelt so hoher Framerate wie mit der HD4000 ohne Kantenglättung.
 
@algo: Die Leistungsdaten sind zwar beeindruckend, reichen aber nicht aus wenn man ohne Pixelbrei spielen möchte. Besonders die meiner Meinung nach sehr effektiven Bildqualitätsverbesserungen wie SSAA und AF benötigen sehr viel Rechenleistung, und in den Präsentationsfolien sieht man dass die Details relativ weit runter geschraubt worden sind. Ich denke richtige Spieler werden nicht um eine dedizierte Grafikkarte herumkommen.
 
So ein langer und guter Artikel. Aber kein Wort zum USB Bug, den Intel erst mit der zweiten Revision fixen will? Diese zweite Revision soll im Juli herauskommen. Schade Winfuture...
 
@davidh2k: Guter Artikel? Den kann man schreiben, ohne auch nur je einen Haswell gesehen zu haben.
 
@Jean-Paul Satre: Er ist trotzdem ausführlich. Ihm fehlt halt nur manches an Information wie eben der USB Bug, der ja leider auch von Intel heruntergespielt wird...
 
@davidh2k: Inwiefern heruntergespielt? Er wurde bestätigt und behoben, alles weitere liegt an den Mainboard-Herstellern und den Käufern meine ich, oder was soll Intel noch machen?
Zugegebenermaßen würde mir dieses Problem aber auch gar nicht auffallen, da ich den Energiesparmodus nicht nutze.
 
@Achereto62: Behoben? Ja mit der zweiten Revision die ab Juli geliefert werden soll. Klar mag der Bug vllt. nur eine kleinen Teil der Käufer wirklich betreffen. Aber selbst mein über 5 Jahre alter Desktop mit Q6600 verbraucht im Ernergiesparmodus weniger als mein RaspberryPi, ich benutze ihn also sehr gern.
Ich wollte nun endlich mal upgraden, nun muss ich halt noch zwei Monate wartezeit hinten dran hängen...
 
@davidh2k: Aber jeder Prozessor, auch der Q6600, hat Bugs.
 
@davidh2k: Schwerwiegende Bugs die viele User betreffen würden sollte man natürlich erwähnen, aber die kleinen Bugs die kaum jemanden betreffen kann man ruhig unerwähnt lassen.
 
Blablabla...wenn ich immer diesen Verschmelzungssülz lese, wird mir schlecht. Ein mobiles Gerät wird nie einen Desktop ersetzen können, solange die Rechenpower nicht stimmt. Wann verstehen auch die letzten, dass diese Segmenttrennung Mobiles/Desktops auf absehbare Zeit erhalten bleibt? Allein schon durch die Bereiche Spiele und Grafik-/Videobearbeitung scheidet ein mobiles Gerät im stationären Bereich aus. Dann doch lieber meinen Bigtower inkl. Sli-System.
 
@tommy1977: Grafik- und Videobearbeitung werden seit Jahren schon auf Notebooks erledigt. Einzig Spiele und einige spezielle, jedoch wenige Anwendungsfelder benötigen noch mehr Leistung. Für das Gros reicht die Leistung von 400-Euro-Notebooks von Aldi völlig aus. Desktops sind nur noch eine Nische, da das Mehr an Leistung für die meisten uninteressant ist. Wenn viel Leistung benötigt wird, dann kann diese bei Bedarf angemietet werden oder es stehen dafür sowieso entsprechende Server zur Verfügung. Desktops wird es weiterhin geben, doch eher für Enthusiasten und keine Mehrheit. An sich sind sie jedoch schon ersetzt.
 
@bgmnt: So ein Käse! Grafik- und Videobearbeitung werden auf Notebooks erledigt? Auf den Dingern mit 15-17"? Na viel Spaß aber auch! Ich kenne nur wenige, welche ausschließlich ein Notebook haben, aber viele, welche zu Hause einen Desktop stehen haben.
 
@tommy1977: Für den Amateur reicht es. Die Profis setzen doch sowieso auf teure Workstation. Von Lenovo gibts aber auch ne mobile Version: Thinkpad W530.
 
@algo: Das ist doch absoluter Quark, den du da schreibst. Ich bin auch kein Profi, möchte aber solche Dinge nie und nimmer auf einem Notebook erledigen. Und so denken viele!
 
@tommy1977: Ich bin da auch mehr der Meinung wie tommy, wir haben zwar auch nur 2 Desktop gegen 3 Laptops, aber diese werden dafür kaum verwendet. Ich denke auch dass mittelfristig Desktop PCs nicht verschwinden werden, wobei uns ja Konsolenhersteller bzw. Publisher weiss machen wollen dass die Spiele für den PC nur im einstelligen Prozentbereich verkauft werden...
 
@tommy1977: An solchen Dingern kann man auch weitere Monitore anschließen. Hab ich auch schon gesehen. ;-)
 
@bgmnt: War klar, dass dieses Argument kommen musste! Das ist mir schon bewusst. Wir haben auch ein Notebook, ein Netbook und im Wohnzimmer die Wii rumstehen. Aber trotzdem mache ich o.g. Dinge ausschließlich an meinem Desktop.
 
@tommy1977: Ähm dir ist schon klar das man problemlos einen Monitor an jedes Notebook anschließen kann? Ich arbeite zur zeit an einem 27" Full-HD Monitor angeschlossen an ein 13" MacBook Pro. Wo ist das Problem? Es gibt im Notebook-Bereich in der Tat ausreichend performante Geräte um professionelle Grafikintensive Arbeiten zu erledigen. Richtige Workstations werden höchstens im Ultra-Professionellem Umfeld noch verwendet, Freelancer verwenden normale PCs, ob im Tower-, oder im Notebook-Format ist dabei irrelevant. Man kann, wie bereits erwähnt, problemlos Monitore in quasi beliebiger Größe daran anschließen, und mittels schnurloser Tastatur, Maus und jedem anderen gewünschten Peripherie-Gerät problemlos daran arbeiten. - Willkommen im 21. Jahrhundert. :-)
 
@master_jazz: "Ähm dir ist schon klar das man problemlos einen Monitor an jedes Notebook anschließen kann?" Wenn man aber permanent nen großen Monitor für seine Arbeiten braucht, wo ist dann der Sinn Geld für ein Notebook auszugeben, wenn man dann eh wieder 10 Sachen anschließen muss, bis das gwünschte Arbeitsumfeld geschaffen ist? Da würde ich doch kein Geld für etwas ausgeben, was ich gar nicht brauche.
 
Wenn ich diesen Schwachsinn mit Medienbearbeitung am NB lese wird mir echt schlecht und ich könnte den ganzen Tag kotzen. Was für ein Dünnpfiff.
 
@bgmnt: Mag sein das viele User auf ihren NB Grafik und Videoberarbeitungen erledigen, aba ein guter alter Tower mit viel Leistung is einfach das non plus ultra. Bevor ich mich an ein 14" ding quetsche schalt ich lieber mein PC ein. Ein NB wird immer von der Leistung unterhalb eines Desktoprechners bleiben, schon allein von der mangelten Kühlung.
 
@tommy1977: Selbstverständlich reichen NB für die meisten Zwecke heute aus, nen Bigtower braucht kein Mensch mehr! Selbst professioneller Videoschnitt ist kein Problem mit passendem i7 & Co.
 
@nize: In meinem Freundeskreis haben 95% einen Bigtower und das nicht ohne Grund. Und schon alleine, weil für mich 24" am PC Minimum ist, kommt ein NB für mich nicht infrage.
 
@tommy1977: Lol. Und der dargestelle Content unterscheidet sich aufeinem FHD-24-Zoll-Display inwiefern von dem auf einem FHD-15,6-Zoll-Display? Ja, Desktops bieten ein Plus an Komfort. Nein, deswegen müssen nicht alle Arbeiten auf einem Desktop erledigt werden. Für so gut wie jeden Home-User reicht theoretisch ein 400-Euro-Notebook. Daran ändern deine Big-Tower-Freunde ebenfalls nichts.
 
@Jean-Paul Satre: Erm.. nein. Sorry. Bei aller Liebe aber sobald dein Home User mal nen neueres Spielchen spielen will wird er Probleme mit seiner 400€ Gurke bekommen.
 
@Aerith: Auf PCs wird kaum gespielt, dafür gibts Konsolen. Das kann sogar ich als PC-only-Spieler zugeben.
 
@Jean-Paul Satre: Dass dieses Ammenmärchen auch noch immer unterstützt werden muss. Das ist der größte Schwachsinn der nur dazu dienen soll die Konsolen zu pushen. Ja auch ich habe früher sehr gerne Konsole gespielt, mittlerweile verstaubt meine PS3 weil es einfach nicht mehr das gleiche ist. Ausserdem unterliegt der PC weniger restriktionen als eine Konsole auch wenn Publisher immer gerne wieder versuchen diese auf den PC zu portieren. Noch dazu bekommen wir immer öfter Konsolenports für den PC ausgeliefert, die nächste schweinerei. Da verdienen sie millionen und können nicht die zwei mark fünfzig ausgeben dass das Spiel nativ am PC berechnet wird und auch von dessen Rechenleistung profitiert und nicht auf dem Stand der Jahrealten Konsolen hängen bleibt... Just my 2 cents...
 
@tommy1977: "Und schon alleine, weil für mich 24" am PC Minimum ist, kommt ein NB für mich nicht infrage."
Und was spricht für dich dagegen ein Notebook über eine Dockingstation an 2 oder auch mehr Monitore von meinetwegen 27 Zoll-Größe anzuschließen? Klar kosten solche mobilen Workstations ca. 2000 Euro, aber dafür kann man sie ohne Probleme auch in Projekten mit zum Kunden nehmen. Privat ist mir die Lösung auch noch zu teuer, dort setze ich deswegen einen Desktoprechner und ein Ultrabook ein. Wenn ich aber mal unterwegs bin, ertappe ich mich schonmal dabei, dass ich mein Ultrabook für Unterhaltungszwecke an einen 40 Zoll TV anschließe. Läuft völlig ohne Probleme über HDMI. Monitorgröße und Tastatur/Maus können also kein Grund für oder gegen ein Notebook darstellen.
 
@ijones: Für Unterhaltungszwecke ist das ja i.O. Ich mache das sogar mit meinem Netbook, um auf ner Party für bissl Musik zu Sorgen oder um den Schwiegereltern die Fotos vom letzten Urlaub zu zeigen. Das ist aber auch nicht das, was ich kritisiere. Du schreibst es ja selbst, dass du trotz Ultrabook einen Desktop-PC zu Hause stehen hast, weil die andere Variante mit Dockinstation & Co. zu teuer ist. In meinen Augen auch zu umständlich...das mag aber jeder anders sehen. Aber es bleibt die Monitorgröße als Problem. Entweder geht es über eine Dockingstation oder per direktem Anschluss oder ich muss mit 15-17" leben. Der nächste Punkt, und dabei bleibe ich, ist die Rechenpower und Aufrüstbarkeit. Von daher bin ich ein Verfechter davon, beide Welten getrennt zu betrachten -> mobiles Gerät für unterwegs und zu Hause ganz bequem am Desktop arbeiten.
 
@tommy1977: Vernünftig arbeiten kann man aber heute auf Notebooks auch ohne Probleme. Nur ist halt die Frage, was man benötigt. In meinen Augen ist das eher eine Geldfrage. Schau dir mal die Dell Precision-Serie an, dort bekommst du Rechner mit 4Kern-Prozessoren mit HyperThreading, 16 GB-RAM und schneller SSD. Das reicht selbst für höhere Ansprüche. Ich bin Softwareentwickler und nutze häufig auch virtuelle Server in meiner Umgebung. Läuft alles völlig ohne Probleme, nebenbei laufen ein lokaler Oracle-DB-Server und SQL-Server auf der Maschine. Das die Dockingstation umständlich ist, kann man auch nicht sagen. Benötigt exakt soviel Zeit, wie einen Desktop-Rechner anzuschalten. Du legst das Notebook einfach auf die Dockingstation. Da braucht man kein Kabel verbinden oder ähnliches. Ich wollte insgesamt damit nur sagen, dass ich Bildschirmgrößen und Eingabegeräte nicht als Gründe für oder gegen ein Notebook gelten lassen würde. Meiner Meinung nach spielen da eher Gründe wie Spielefähigkeit sowie spätere Aufrüstbarkeit eine Rolle. Wobei ich finde, dass mit der Aufrüstbarkeit Dank der hohen Integration auch immer unwichtiger wird.
 
@tommy1977: Multi-GPU ist heutzutage doch völliger Schwachsinn. Solange man nicht 3x 1080p+ Screens fürs "suround gaming" benutzt sind microstuttering und ne dicke Stromrechnung das einzige was man sich bei sonem Setup erhält. Vor allem wenn Leute meinen für 1080p gaming SLI zu benötigen.... lawl. Lieber eine vernünftige Highend karte kaufen statt 3x mainstream im kasten zu haben und den Recher innen Toaster zu verwandeln.
 
@Aerith: Aber für eine Highend-Graka hätte ich meine GTX560Ti rausschmeißen und 500 Euro für eine neue investerien müssen. So hab ich knapp 200 Euro investiert und habe quasi die gleiche Leistung. Die knapp 300 Euro Preisunterschied frisst die Stromrechnung in 10 Jahren nicht auf. Ich bin also damit zufrieden und BF3 läuft damit im Schnitt auf hohen Einstellungen mit ca. 70 FPS. Ach ja...Microruckler bemerke ich komischerweise nicht.
 
@tommy1977: 285W unter Last. Sagen wir 3h/tag für ein Jahr (a). 365*3*285 = 312075Wh/a = 312KWh/a 1KWh ~ 33ct = 104€/a DAZU kommen noch die 135W die die Karte im idle frisst, sprich wenn du nicht zockst schaltet sie ja nicht komplett ab. Ich gebe dir 2 Jahre MAX bis du über die Stromrechnung auf den Preis der Highend Karte kommst. ||| Quelle für Leistungsdaten: http://www.bit-tech.net/hardware/graphics/2011/01/25/nvidia-geforce-gtx-560-ti-1gb-review/8
 
@Aerith: Weil ja auch alle Grafikkarten bis zu 285W verbrauchen und es keine stromsparenden Modelle gibt...Die GTX 650 Ti verbraucht unter Vollast beispielsweise nur 110W und im Leerlauf gerademal 15W. Die Radeon HD 7770 verbraucht im Leerlauf gerade mal 3 Watt und unter Vollast 80W. Von daher ist das völlig haltlos, was du schreibst!
 
@Brain_Dead: ER hat aber eine 560 Ti und für SEINE Karte hab ich die Werte ausgerechnet da es hier konkret um SEINEN Fall geht. Bitte erstmal alles lesen eh man sich blamiert.
 
@Aerith: Es ist doch völlig egal, was die Graka von tommy1977 verbraucht. Denn es ist von Person zu Person verschieden, ob das dem Geldbeutel weh tut oder nicht. Es ging hier ja aber allgemein ums Thema, dass Grafikkarten angelich viel verbrauchen würden und dem ist halt nicht so! Von daher sehe ich meinen Einwand als völlig berechtigt an und von blamiert kann da keine Rede sein.
 
@Brain_Dead: "Die Radeon HD 7770 verbraucht im Leerlauf gerade mal 3 Watt und unter Vollast 80W." 3W = Zero Core Power nur unter ganz bestimmten Bedingungen, belies dich mal. Eine 7770 mampft unter Last ca 30% weniger als eine 7870. Allerdings hat sie nur rund die halbe Leistung einer 7870. Rechne mal selbst. ||| http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7870-und-hd-7850/5/
 
@Aerith: Na und? Als ob das jetzt jemanden in den Ruin treibt. Es gibt genug Grafikkarten, die im Verbrauch sehr moderat sind, sodass man sich wegen der Stromkosten nicht in die Hose machen muss.
 
@Brain_Dead: Es geht um die Logik, nicht darum obs jemanden ruiniert. Unterm Strich: 2x 7770 ~ 1x 7870 (Leistung), aber mit höheren Anschaffungskosten (110€ 7770, 210€ 7870), höherem Stromverbrauch (ca 20%). Das ist doch Schwachsinn. Es mag einige ausgesuchte Fälle geben wo das vllt mal gleich auf kommt, aber generell gilt: Solange ich nicht die Leistung von mehreren HighEnd Karten brauche kann ich auf SLI verzichten.
 
@Aerith: Es ging mir ja jetzt nicht um SLI, sondern um die Aussage von Lastwebpage, der sich um die Stromkosten einer dedizierten Grafikkarte sorgt. Und das halte ich für Blödsinn.
 
@Brain_Dead: Meh dann haste aber an den falschen geschrieben. Bei einzelnen Grakas stimm ich dir zu, wobei man ganz klar sagen muß: Die interne (die aber auch strom schnabuliert) recht dicke wenn man nicht zockt.
 
@Aerith: Das ist mir allerdings auch grad aufgefallen. Tut mir leid!
 
@Aerith: Deine Rechnung mag stimmen, ohne dass ich sie nachgeprüft habe (keine Ahnung mehr, wie ich auf meine Zahlen gekommen bin?). Aber berücksichtige bitte, dass ich auf ca. 12h/Woche komme...daraus ergeben sich mit deinen Werten ca. 58,- Euro. Wenn du jetzt noch Urlaub abziehst, dann sind wir in einem Bereich von ca. 50 Euro/Jahr -> 4,16 Euro/Monat und das ist ja nun mehr als vertretbar.
 
@tommy1977: Ist schwierig mit den Zahlen, sagt eh jede Website was anderes. Evtl. hattest du nen Dezimalstellenfehler drin.
 
@tommy1977: Stimmt schon, aber der Trend ist nicht zu verkennen, und es ist doch klar und imo auch völlig in Ordnung, dass Hersteller sich darauf einstellen.
Es entsteht dadurch doch kein Nachteil für jene, die weiterhin auf Desktops setzen wollen oder müssen.
 
@tommy1977: Jawollllll - Endlich bringt das mal jemand zur Sprache - diese Nudel-Tabletts können nie und nimmer einen PowerPC ersetzten - nicht in 20 Jahren!
 
@tommy1977: Ich habe den i5 Ivy mit der HD4000 und keine andere Graka. Ich kann alles machen, Videos sehen, Internet, Path of Exile u.ä. reicht mir für ein Spiel auch (Ich brauche keine FULL-HD-Ego Shooter). Auch der Inteltreibe funktioniert ganz gut. Geld und Platz für die Graka (Obwohl ich ein eher kleines Gehäuse habe) ist nicht mein Problem, aber was ist mit Lautstärke und Stromverbrauch?
 
@Lastwebpage: Welche Lautstärke? Ich höre nix! Und was habt ihr eigentlich immer mit eurem Stromverbrauch? Ich hab mir das mal vor ner Weile hochgerechnet und bin auf max. 10 Euro Mehrverbrauch im Jahr gekommen. Das kann ja dann wohl kein Argument sein, oder?
 
@tommy1977:
Ich glaube hier ist eher die Verschmelzung von Laptop und Tablets gemeint. Und das ist ja im Moment auch klar im Gange.
 
@Wolfgang3: Dann ergibt das auch Sinn, da beide Geräteklassen einen ähnlichen Einsatzbereich abdecken.
 
@tommy1977: warum stänkerst du hier so rum? nur weil DU das möchtest. nur weil 95% DEINER freunde das so machen. das heisst nicht das: es viele viele viele (und noch mehr) ganz anders wollen. ist das deine beste eigenschaft? in newsforen deine meinung kund tun? da du so ein toller statistiker bist: 95% MEINER freunde finden DEINE postings langweilig. und jetzt? ach halt dich doch einfach ein bissel zurück, bitte.
 
@achtfenster: WO habe ich gestänkert? Ich versuche lediglich meine Meinung zum Thema zu vertreten. Und wenn mein Umfeld das auch so sieht, ist das für mich eine Bestätigung. Der einzige, der hier völlig unqualifiziert in die Diskussion platzt, bist du. Und ja, ich tue in Newsforen meine Meinung kund, dafür sind diese schließlich da! Ach ja, falls du es nicht bemerkt hast, ich spreche immer nur für mich und habe NIE meine Meinung als die einzig wahre dargestellt. Und nun komm wieder runter und schreib was vernünftiges!
 
Laut CB.de sind die Ivy-Bridge-Prozessoren besser außerdem steigt leider die TDP bei Haswell. Lieber den CB.de Test nehmen weil sie auch Testen und nicht nur wie hier schreiben.
 
@Menschenhasser: CB? ComputerBase? Wehe du sagst jetzt Bild, dann muß ich 1 und 0 nach dir werfen. || "Bei einer Spannungserhöhung um 0,1 Volt erreichte der Core i7-4770K bereits die 100-Grad-Marke" autsch. o_O
 
@Aerith: Computerbase. Computerbild als Seite ist nur etwas für 0815 China-Elektronik-Käufer die vielleicht ihre Wohnung in Brand setzen wollen.
 
@Menschenhasser: Die U-Modelle, die etwas in MacBook Air eingesetzt werden, sind ja noch nicht da. Dort wird der TDP vor allem interessant bzw. natürlich auch bei allen anderen Ultrabooks.
 
Bin echt mal gespannt wie sich die neuen Prozessoren so schlagen. Genau richtiger Zeitpunkt um doch mal auf ein anderes Notebook "upzugraden". Auch wenn ich gern AMD unterstütze. Aber Prozessor mäßig legt Intel in letzter Zeit ganzschön was vor. Aber ja stimmt wir sind ja in der Post und DHL-PC Area, hab ich ganz vergessen. Doof nur das ein Tablet genauso ein Personal Computer ist. Wie wir es nutzen ändert sich und wie es aussieht. Aber es bleibt ein PC.
 
Für den Desktop scheint Haswell eine richtige Enttäuschung zu sein. Nicht schlechter als Ivy Bridge, aber eben auch nicht besser. Etwas höhere Leistung und etwas höherer Stromverbrauch. Das ist zu wenig für eine neue Architektur.
 
@Valfar: Das war aber schon vorher klar. Intel hat eben jetzt mehr Wert auf die Verbesserung des IGP gelegt. Und da haben sie schon ordentlich zugelegt.
 
@unLieb: Das die Leistung sich nicht stark erhöhen wird war zu erwarten, dass die CPU aber gleichzeitig auch mehr Strom verbraucht (und deutlich wärmer wird) war so nicht abzusehen.
 
@Valfar: Denke mal dass das mit der integrierten Grafikeinheit zusammen hängt, dass die Leistungsaufnahme etwas gestiegen ist.
 
@unLieb: Nö, die Spannungswandler sind vom Mainboard in die CPU gewandert. Der "Stromverbrauch" des gesamten Systems ist definitiv niedriger, die CPU wird nur deswegen wärmer, weil mehr "Verbrauch" in der CPU selbst und nicht rundrum konzentriert ist.
 
@Valfar: Weil Intel nicht in der Bringschuld ist. AMDs Bulldozer war ein Flop, Intel ist weit vorne, warum also verbessern? Erst wenn AMD etwas konkurrenzfähiges bringt, wird Intel wieder einen Sprung machen. So lehnen sie sich zurück und konzentrieren sich weiter auf den mobilen Bereich und die Grafik.
 
Was mich interessiert, ob die Grafikeinheit immer noch den 24p Bug hat?
 
@HaPe2013: wieso immer noch? soweit mir bekannt ist, wurde dieser bug bei ivy schon behoben.
 
@AndyMutz: Habe einen Celeron G1610 und der 24p Bug ist definitiv vorhanden.
 
4K-Unterstützung? Bedeutet das dann endlich Notebooks mit angemessener Bildschirmauflösung?
 
@BajK511: Genau wo ein 4K Desktop Monitor ja nur 5000 Dollar kostet :-)
 
@ all: Man kann ein Notebook auch an einen 50-Zoll-TV anschliessen, und damit die Probleme "Bigtower" oder "teures Notebook" umgehen.
 
@Basarab: Na klar...auf dem Schreibtisch oder was? Oder arbeitest du im Wohnzimmer? Wenn ich solchen Mumpitz immer lese!
 
@tommy1977: "Wenn ich solchen Mumpitz immer lese!" darf ich deinen satz vervollständigen? "Wenn ich solchen Mumpitz immer lese, muss ich ihn immer kommentieren" oder was tust du hier? ist das deine art der meinungskundgebung? setzen 6.
 
@achtfenster: s.o.
 
@tommy1977: du machst hier die leser an mit deinem aggressiven verhalten. nennst anderer meinung mumpitz und möchtest so etwas nicht lesen mit deiner aussage. also komm du mal runter und halt dich ein wenig zurück. aber ich stoße bei dir anscheinend nur auf taube ohren. thema ist für mich beendet.
 
@achtfenster: Wenn ich etwas als Mumpitz empfinde, schreibe ich das auch so und begründe dies auch. Thema beendet? Du hast noch nicht alle beleidigt, hast also noch ne Menge zu tun!
 
Wieder werden Milliarden verdient. Auch wieder für ein paar mickrige Prozente/Promille an Mehr- Leistung!
Mit dem Energiestar-Potenzial ist es detto!
Es rechnet sich nicht einmal nach 20 Jahren!
 
@Almoehi: natürlich sind diese energieangaben reines geheuchel. aber sie bringen geld. mehr zählt nicht. was nicht heißt, das ich das gut heiße. aber immerhin erkenne ich die realtität und kann (weil muss) damit leben. wenn du diese erkenntnis irgendwann erlangt hast, bist du vielleicht nicht mehr gezwungen das (deine empörung) in newsforen kund zu geben. denn auch diese sind reine energieverschwendung. oder welche synergie glaubst du mit deinem kommentar auszulösen?
 
@achtfenster : Synergie kann man bei den bescheuerten, von dem Geld gespaltenen Leuten keine mehr auslösen!
Vielleicht regt man aber ein Fünkchen Nachdenken an? Bei Kids ist das hingegen ausgeschlossen ...
 
@Almoehi: ich kann mir nicht vorstellen, dass das was bringen sollte.
 
@achtfenster: Hat man noch nichts von der Müllflut gehört? Den Rohstoffkrieg. oder von der Ausbeutung, die im Zuge der Materialien-Gewinnung ganze Länder schwächt?
Die aktuelle Entwicklung von Kriegen zielt genau auf dieses Thema ab!
Die Leute gehören nüchtern erweckt, nicht aufgewiegelt!
 
naaaa also kaufen werd ich mir nicht son neuen aber die alten wreden sicher um ne ecke günstiger werden >_< und ich bräuchte dringend mal n neun cpu .... habs jetzt nur so überflogen aber wann genau kommen die auf den markt ? und ab wann ist mit preisverfall bei den alten cpus zu rechnen ?
 
@Tea-Shirt: gehst wohl auch zu hellseher auf der kirmes oder wieso möchtest du hier solches orakelwissen? "wann ist mit preisverfall zu rechnen"? na gut weil du es bist: damit ist ab sofort zu rechnen.
 
@achtfenster: Das zum Thema "Stänkern"! Tea-Shirt hat eine einfache Frage gestellt!
 
Ist es eigebtlich Taktik von Intel und den anderen Herstellern unzählige verschiedenen Varianten von CPU's, Chipsätzen, Sockeln, usw. zu veröffentlichen mit Namen die man nur schwierig voneinander unterscheiden kann? Da muss man ja schon fast studieren um sich einen Überblick zu schaffen.
Kommentar abgeben Netiquette beachten!

Intels Aktienkurs in Euro

Intel Aktienkurs -1 Jahr
Zeitraum: 1 Jahr

Beiträge aus dem Forum

Weiterführende Links

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles