Intel: Software kann nicht mit Hardware mithalten

Hardware Intels Technologiechef Justin Rattner ist davon überzeugt, dass es den Softwareentwicklern nicht gelungen ist, mit dem technischen Fortschritt mitzuhalten. Er forderte deshalb in der letzten Woche verstärkte Bemühungen auf Seiten der ... mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Wann sollte das Internet nochmal wegen Überlastung zusammenbrechen?
 
@Mudder: Das "Internet" kann zusammenbrechen...ja ne is klar...
 
@Mudder: übermorgen.
 
Miss_Chichi_Wang, nee erst am Donnerstag. Zusammen mit dem Weltuntergang!einself
 
@Mudder: http://www.welt.de/welt_print/article1498679/Das_Internet_wird_nicht_kollabieren.html

augenmerk auf den vorletzten absatz :)
 
Menno.. Ihr nehmt mir echt jede Hoffnung auf die Apokalypse.
 
@Cutin:
"...Die bisherige Trennung zwischen Festnetz und Mobilfunk, Telefonnetz und Internet wird es in zehn Jahren nicht mehr geben", ist eco-Geschäftsführer Harald Summa überzeugt...."
 
@obiwankenobi: klar kann ich mir gut vorstellen.
zu hause wird bei uns eh seit langem kein festnetzttel mehr benutzt. quasi nur deko :P
 
Ein wahres Wort, die Meisten haben heute schon eine Dual- oder gar eine Quad-Core CPU in ihrem Rechner. Es aber kaum Software welche diese auch voll ausnutzen. Von einigen Ausnahmen z.B. im professionellen CAD- und Video-Bereich mal abgesehen (EDIT: ... und einige Spiele).
 
@swissboy: Es gibt doch aber viele Spiele die von Dual Cores oder Quad-Cores profitieren, oder irre ich mich da?
 
@XMenMatrix: Eigentlich nicht, zwei Hänge langen da schon, um sie aufzuzählen. Eventuell auch drei. Der Mann von Intel weiss wovon er redet.
 
@swissboy: Ich finds immer ganz toll wenn ich ne DVD für meine Settop-Box umwandeln kann und nebenbei noch nen Spielchen wage ohne das irgendwas langsamer wird. Jedem Prozess 2 Cores zugeteilt und schon gehts ab.
 
@swissboy: Schon ist gut. Eigentlich sind mehrere CPUs bzw. Cores schon seit den späten 90ern üblich und seit dem guten alten Abit BP6 auch recht weit verbreitet. Das schöne damals war daß ein einzelner Amok laufender Prozeß nur eine CPU dicht gemacht hat und die Kiste einfach weiter lief als ob nichts wäre. Seit die Programme "optimiert" werden hängt leider wieder die ganze Kiste. Nichts was ich unbedingt als Fortschritt bezeichnen würde.
 
@swissboy: Ihr stellt euch das so einfach vor. Damit mehrere CPUs oder Kerne (was aus Programmierersicht das selbe ist) verwendet werden, muß das Problem auch in zwei oder mehrere unabhänge Algoritmen aufgeteilt werden können, und das möglichst gleichmässig. Nur dann kann eine Berechnung auf mehreren CPUs oder Kernen gleichzeitig erfolgen.
 
@Lofote: Von immerhin zehn Jahren habe ich das schon im 3. Semester hören und programmieren dürfen, also so schwer kann es ja dann wohl nicht sein. Sicherlich ist es schwierig mehrere Cores gleichmäßig auszulasten, aber irgendwas findet sich eigentlich immer um zumindest etwas Last auf mehrere Threads zu verteilen.
 
Dann kommt aber noch das Problem, dass z.B. Spiele kaum CPU-limitiert sind heutzutage... und nicht jedes Problem lässt sich beliebig in kleine Teilprobleme unterteilen.
 
Tja zum I-Net surfen und Briefe schreiben braucht man halt nen QuadX9650 sonst könnte es ja sein, dass man beim Upload des Briefes nen Timeout bekommt oder beim aufbau der Web 2.0 Seite einschläft....

Ich glaube die haben noch nicht bemerkt, dass die Zeiten bis sich jemand nen neuen Computer kauft immer mehr verlängern (siehe Studie Ct) - weil nur die Zocker, Grafiker oder Videoersteller diese Rechenpower brauchen können.

Und ich bin mir sicher, dass viele Softwareprogramme immo nicht optimal programmiert werden - da man sowieso viel zu viel Rechenleistung zur Verfügung hat.
 
@fraggen: Jupp.. Besonders die Programmentwicklung hat in den letzten Jahren, auch aufgrund des Budget-Drucks stark nachgelassen. Warum noch Prozessschleifen optimieren und Datenströme komprimieren wenn Arbeitsspeicher und CPU-Leistung zur Verfügung steht. Besonders schlimm finde ich aber den zunehmenden Qualitätsverfall. Dank des Internets kann man sich schon sicher sein das ein Spiel oder Office-Tools fehlerhaft sind. Warum noch ein-zwei Monate Betatest veranstalten wenn man die User testen lassen kann und dann ein Patch nach schiebt.
 
Tja, INtel, das kommt davon, wenn man zuweit vorausläuft und mehr Power herstellt, als irgendwer braucht. Computer sind dazu da, Software laufen zu lassen, nicht umgekehrt.
 
Ich glaube nicht dass es an der Fähigkeit oder dem Willen der Entwickler mangelt parallel zu programmieren. Es fehlt eigentlich der praktische Nutzen dies zu tun. Welche Anwendungen des Home-Users oder auch eines Büroangestellten haben Problemstellungen die einer Parallelausführung Sinn verleihen? Und bei den Anwendungen die es sinnvoll scheinen lassen funktioniert MultiCore schon. z.B. bei Adobe Premiere, EncoreDVD, Photoshop, etc. Eine echte Notwendigkeit, auch für den Durchschnittsmenschen) wird Multicore wahrscheinlich erst im "vernetzten Haus". Eben da wo mehrere Dinge gleichzeitig erledigt werden müssen. Im Wohnzimmer Jalousie hoch, Musiksammlung im Wohnzimmer abspielen und gleichzeitig TV-Stream im Kinderzimmer wiedergeben.
 
@DennisMoore: Wenn man sieht wie viele Hintergrundprozesse sich inzwischen im Hintergrund um CPU-Zeit prügeln kann man sicher sein daß zumindest zwei CPUs/Cores sinnvoll sind, schließlich kann man nur so sicher sein daß dem aktuell aktiven Programm die maximale Rechnenzeit zur Verfügung steht.
 
@Johnny Cache: Das stimmt schon das viele Hintergrundprozesse laufen, nur prügeln die sich in den seltesten Fällen um die CPU, die meiste zeit idlen sie!
 
@roidal: Richtig, aber letztendlich sollte die maximale Leistung dann verfügbar sein wenn man sie braucht, weswegen eine Optimierung durchaus sinnvoll ist. Z.B. geht beim entpacken von Dateien nicht gerade wenig Zeit für den Virenscanner drauf, welcher sich sonst den ganzen lieben langen Tag langweilt. Diesen auf einem anderen Core zu betreiben bringt eine nicht unerhebliche Leistungssteigerung.
 
Die Prozessorteilung funktioniert ja schon Tip Top. Die Multithreading fähikeit des Betriebsystems ist verantwortlich für die Aufteilung der Anwendungen auf die jeweiligen Cores. Jedoch heisst Parallelprogrammierung: Einer Applikation die Möglichkeit zugeben zwei Tasks auf ein mal abzuarbeiten. Diese möglichkeit gibt es noch sehr wenig. Oder Irre ich?
 
Recht hat er! Aber ich denke, dass das nur eine Übergangsphase ist, bis man neue Ideen für Software hat, die die Power ausnutzen.
 
Der Mann hat recht, und auch bei Microsoft sieht man das wohl ähnlich. MS sucht aktiv nach neuen Möglichkeiten, zukünftige Betriebssysteme besser an die kommenden Many-Core Prozessoren anzupassen (QUELLE: http://www.heise.de/newsticker/meldung/102084). Selbst bei Vista ist die Zahl der sinnvoll nutzbaren CPU-Kerne ja relativ begrenzt: (QUELLE: http://www.golem.de/showhigh2.php?file=/0705/52474.html).
 
@X.Perry_Mental: Dafür gibts auch Linux *troll* :D
 
zurückgefallen oder zurückgeblieben, weil die Entwickler und Unternehmer mehr Zeit damit verbringen ihr Geld auszugeben anstatt die Software zu optimieren ???
 
"...Während die Hardware mittlerweile in neue Dimensionen vorstößt, sei die Softwarebranche weiter zurückgefallen. ..." __das ist schlcihtweg FALSCH..zurückgefallen is sie nicht - sie ist aufm stand von ca. 2005 stehngeblieben. __- :-)
 
@obiwankenobi: falsch. Die Entwicklung ist tatsächlich zurückgefallen, also der Abstand hat sich vergrößert. Bei einem Rennen kann man doch auch zurückfallen, ohne rückwärts laufen zu müssen :)
 
JA, das ist mir auch aufgefallen,das nicht grade wenige, die Software auf zbs. 64bit gar nicht läuft.
 
Der Herr hat vollumfänglich recht. 64bit ist bei den meisten Softwarehersteller ein Fremdwort, obschon es schon lange keine 32bitter mehr zu kaufen gibt. Und Mehrkernunterstützung ist bei vielen auch mehr ein Angstgebilde als eine Zukunftsvorstellung. Ganz zu schweigen dass die Mehrheit der Software heute grüner als ne Banane auf dem Schiff ist. Kehrtum muss man den CPU Hersteller grad im Consumer Bereich auch vorwerfen, zu schnell vorwärts zu machen. Ich meine ich finds gut dass jetzt Quad Cores gepusht werden, so bekomme ich kostengünstige Dualcores. Und bis man wirklich ein Quad Core braucht, werden schon Okto Cores auf dem Markt sein, und somit die Preise der Quad Cores massiv gesenkt.
 
Kann mir mal einer Helfen bitte wenn ja ICQ hab ich auch
 
Herr Justin Rattner, man kann es auch anderes ausdrücken. Was CPU-Entwicklung seit ihr an eure Grenzen gestoßen und euch ist nicht besseres als Dual- bzw. Quad-Core eingefallen um bei den Verbrauchern alle 3 Monate abzukassieren. Erst jetzt ist euch eingefallen, dass es so gut wie keine Software dafür gibt. Dasselbe gilt auch 64bit. Der dumme ist immer der Verbraucher.
 
Ich kann nicht glauben was ich da lese! O.O
Sind die bei Intel auf einmal völlig dumm geworden oder kam jemand aus der Vergangenheit?
Ich schaffe bei meinem QuadCore Q6600@3GHz zwei Kerne voll auszulasten und die anderen zwei zu jeweils 40-70%!
Nicht die Softwarehersteller, sonder die Prozessorhersteller, !INTEL! liegt hinten! Echt wahnsinn, was die sich da erlauben, ich glaube die haben wirklich nichts anderes auser Word, Paint und Pacman auf dem PC...
Kommentar abgeben Netiquette beachten!

Intels Aktienkurs in Euro

Intel Aktienkurs -1 Jahr
Zeitraum: 1 Jahr

Weiterführende Links

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.