Das Interview von Xavier (Notebooks.com) mit Rahul Sood (BlogTwitter) ist mir in den letzten beiden Tagen wirklich nicht mehr aus dem Kopf gegangen. Grund genug den Videoskypcall der beiden auch hier zu veroeffentlichen und einige persoenliche Anmerkungen zu machen. Rahul ist der Gruender von Voodoo PC (gehoert inzwischen zu HP), also High End Kisten mit allem Schnickschnack und in Preisregionen, in denen ihr auch euer Netbook mit Blattgold ueberziehen lassen koennt, und somit natuerlich ein wenig beunruhigt, ueber die enorme Nachfrage nach kostenguenstiger Hardware:

Selbstverstaendlich kann ich Rahuls Position absolut nachvollziehen, dennoch muss ich Sie ja nicht teilen (zumindest nicht komplett, denn er nennt in seinem Blogposting einige Punkte, die ich direkt unterschreibe).

Um den ganzen Hardware Wahnsinn zu verstehen, muss man die Uhr mal um 25 Jahre und mehr zurueckdrehen. Mein erster Computer war ein ZX81, den mein Vater von einem Arbeitskollegen ausgeliehen hatte. Der Z80 Prozessor mit 3,25 Mhz und 1KB RAM waren damals ja nahezu unfassbar (die 6fach belegte Folientastatur uebrigens auch).
Es kam was kommen musste, scheiss auf den Sinclair, der Brotkasten musste her und mein C64 mit Datasette fuer umgerechnet fast 1200 Euro stand auf dem Schreibtisch meines Kinderzimmers. Noch nicht einmal 1Mhz hat die verbaute 6502 CPU und auch die 64KB RAM des 64ers blieben nur den Assembler Jungs vorbehalten. Aber was dann in den kommenden Jahren aus dieser Kiste gequetscht wurde, das ist der Wahnsinn!

Und woran lag das wohl?

Richtig, die Entwickler mussten damals mit der Hardware auskommen, die verfuegbar war und dann reden wir ebenfalls noch ueber Produktzyklen von 5 Jahren und mehr! Anstatt mit Gigabyte und Ghz rumzusauen, war kreatives und innovatives Denken gefragt. Es gab Coder-Wettbewerbe fuer das beste Programm unter 10KB oder die beste Demo und da kamen Dinger raus, die auch heute noch absolute Hingucker sind (siehe auch Demoszene)

Ich moechte nicht wissen, wieviele Musiker noch immer Tracker und Sequencer auf dem C64 nutzen und wieviele Amigas und STs immer noch ihren Dienst tun und das richtig gut.

Es geht hier nicht um die Kunst des Weglassens, sondern darum, wie ich die zur Verfuegung stehenden Ressourcen optimal ausnutze. Die Entwicklung auf dem Hardware Markt zeigt die ganze Dekadenz unserer Gesellschaft. Groesser, schneller, lauter, bunter! Fortschritt definiert sich durch mehr Ghz, mehr Cores, mehr Grafikkarten. PCs die soviel Strom verbrauchen wie ein komplettes Einfamilienhaus!

Fortschritt? Innovation?

AMD, Intel und Microsoft haben diesen Irrsinn gepuscht und wir haben den lecker Marketingkuchen immer brav gefuttert. Hast Du keine DirectX 10 Karte, kannste nicht die schicke Oberflaeche von Vista geniessen. Haste nicht nen Quadcore, wird das neue Spielchen nur auf der Mickymaus Kino Aufloesung laufen, mit 10 FPS.
In Koeln wuerde man diese Nummer Kluengel nennen, denn genau das laeuft seit Jahren zwischen den Hardware-, den Betriebssystem- und den Software-Entwicklern ab. Kauft weiterhin 500 Watt PCs um im Internet zu surfen.

Und jetzt knallen da auf einmal Netbooks und Weltwirtschaftskrise in dieses Profit-Paradies und das Gejammere faengt an. Netbooks sind der beste Narrenspiegel fuer die Industrie und Augenoeffner fuer den Verbraucher!

Gebt uns keine Hardware mehr, die wir eh nicht brauchen, sondern fangt endlich an weitere stromsparende Loesungen zu entwickeln. Da koennt ihr zeigen wie kreativ und innovativ ihr seid, denn Performance per Watt ist nicht nur ein Schlagwort, sondern der Indikator fuer ressourcenschonendes computing.

Entwickelt Grafikkarten, die 5W verbrauchen und trotzdem eine Leistung haben, die sich mit aktuellen 200W Modellen vergleichen laesst. Entwickelt endlich Software, die schonender mit den vorhandenen Systemressourcen umgeht. Hochintegrierte Chipsaetze die Codes und Medien direkt unterstuetzen, muessen vermehrt im Endkundenmarkt auftauchen.

Die ganze Branche kann hier extrem innovativ sein, aber es muss endlich begriffen werden, dass schneller, groesser und bunter nicht immer auch besser ist.

Netbooks sind ein erster Schritt! Oder was denkt ihr?

Newsletter abonnieren

RSS-Icon Immer auf dem Laufenden bleiben? Dann abonniere unseren RSS-Feed!
  • Arthur Dent

    Ich denke, daß ein C64 allerhöchstens in den ersten vier Wochen 2400,-DM gekostet haben kann.

  • shiru

    genau so ist es!
    ich bin mir sicher, dass bei min. 50% der PC-Nutzer die CPU den ganzen Tag max. 20% ausgelastet ist. aber das Netzteil läuft schön brav mit 400W.
    es scheint so, als hätten viele Hersteller einfach kein Bock, plötzlich die Produktlinie zu erneuern und nun auf den Stromverbrauch zu achten.

  • Sascha

    @Arthur

    da haste wohl recht.. Und es gab auch noch ne schicke Commodore Sporttasche dabei ;)

  • Hein

    Gut geschrieben.
    Die Diskrepanzen sind allerdings schon erstaunlich. Mein relativ neues Core2Duo Notebook kann ich mit einem 60W Netzteil betreiben, während schon in meinem 5 Jahre alten Desktop-Rechner ein 400W Netzteil steckt.

    Vor allem hat das Stromsparen bei Net- und Notebooks ja auch einen riesen Vorteil: Die Systeme können kühler betrieben werden und sind somit leiser und die Akkulaufzeit steigt.
    Ich glaube jedenfalls, dass auf diesem Gebiet noch einiges zu machen ist.

  • animatio

    @Arthur Dent: ein wenig google … und du wüsstest wie wenig du “gedacht” hast.

    Corel Draw, Photoshop, Illustrator usw …… alles schon unter 98 und XP mit 256 (gigantischen, seinerzeit) MB Ram ab 200 MHz bestens gelaufen usw und so fort. waren hat noch keine XX Boliden ….. In Ergänzung zu Saschas Anmerkungen: die “Klungel-Industrie” zieht ja aus den genannten Gründen auch immer sofort ältere Versionen aus den Regalen der Händler zurück. Soll ja keiner auf die Idee kommen, noch Software für sein schlankeres “Altes” posten zu können.

    daher es gibt schon Gründe warum ich Portable Apps und andere freie Software mag …..

    nur: man darf nicht ausser acht lassen: das viele Geld wird heutzutage mit Gamen und Multimedia verdient, nicht mit “Arbeitsapplikationen”. Benchmarks mit Datenbanken als Teil eines Leistungmasstabs, das war einmal. Genaus so wie der Flight Simulator dafür passé ist.

  • Netbook Beobachter

    Innovation hin oder her, aber das weglassen von Umlauten geht definitiv in die falsche Richtung!

  • Toni Borgetto

    Innovation kann es in vielen Bereichen geben – bisher war es halt meist “immer schneller, immer stromfressender, immer teurer”, jetzt geht es teilweise in die andere Richtung: ressourcenschonender, längere Laufzeiten, günstiger.

    Und wenn ich an die Zeiten von C64, Amiga oder Atari ST zurück denke: wo ist da wirklich die großartige Innovation in den letzten 20 Jahren passiert?

    Die Geräte konnten mit ihren Handvoll an Megahertz CPU-Frequenz und Kilobyte RAM im Prinzip genauso die gleichen Grundbedürfnisse erfüllen wie heute auch: Ich konnte Texte schreiben, etwas Tabellenkalkulation, usw.

    Was hat sich seither so revolutionäres getan? Nichts. Klar ist alles bunter usw. geworden, aber auf den stromfressenden Gigahertz-Boliden schreibe ich genauso meine Texte wie früher – der größte Unterschied ist für mich in der Usability, heutige Systeme fühlen sich einfach vergleichsweise zäh an, trotz ihrer zigtausendfach gesteigerten Geschwindigkeit und den Gigabyte RAM.

  • Dieter

    Kann Sascha nur zustimmen!
    Mein erster C64 (mit Floppy 1541 und 9-Nadel Drucker Epson RX 80) hat mich knapp 1.500 DM gekostet. Als der Amiga 1000 das erste Mal im Schaufenster aufgetaucht ist hab ich mir die Nase plattgedrueckt … aber her musste er :-)

    Die Programmierer haben damals im wahrsten Sinn des Wortes das letzte Byte *rausgequetscht* – ich erinnere mich noch an einen guten Freund von mir (wir haben damals zusammen jede Menge Softwaretests fuer das C64 Magazin geschrieben) als er das erste Mal einen Amiga in den Fingern hatte …. WAHNSINN :-)
    Spaeter hat er dann mit einem Freund die Firma “Blue Byte” gegruendet – die Fa. gibts heute noch :-)

    Aehnlich ist es doch bei der Software – wer von den Millionen Benutzern BRAUCHT (oder kennt) denn wirklich mehr als max. 10 – 15% der Funktionen von z.B. MS Word?

    Als ich in spaeteren Jahren im Service gearbeitet habe (Computernotdienst) war mit schoener Regelmaessigkeit der Computer im Buero des Vaters max. 1/4 so teuer und leistungsfaehig wie die Kiste im Zimmer des Sohnemanns … :-))

    Auch heute ist es doch regelmaessig der Fall dass
    – Software (Game) ABC neue Features hat
    – die Software aber auf Comp. XY nicht oder nur schlecht laeuft
    – neuer (besserer, schnellerer, …) Computer muss her
    – nach nem halben Jahr kommt Spiel DEF
    – … und das Ganze beginnt von vorne …

  • Kronos

    Eigentlich kann man Sascha nur zustimmen.
    Außer dass ein Quadcore bis jetzt nur in 2 Spielen doer so was bringt, und man eher Quad SLI braucht um auf High End zu zocken ;)
    Aber ist ja das selbe.

    Die größte ressourcen Schleuder ist und bleibt Crysis, das läuft nicht mal mit den schnellsten Einzel GPU Karten in HighEnd geschit : http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_260_216_shader/19/#abschnitt_crysis sobald man AA und AF einschlatet ist selbst mit einen GTX 280 // 280 schluss. Und bitte wenn ich so eine 400 € Karte (aktuell 285 “schon” ab 330) habe dann will ich doch bitte mit Kantenglätung und pie pa po spielen.
    Ganz locker flockig frisst die Grafikkarte mal bis zu 183 W laut Nvidia, ein dem würdiger Komplettpc wie im Tsest mal 360 W

    Und somit wären wir bei den 800 W oder mittlerweile gibts ja 1,2 kW Netzteilen …. auch son Unsinn.
    shiru so schlimm ist dann doch nicht, ein 400 W Netzteil braucht nicht immer 400W auch wenn der Wirkungsgrad bei geringer Auslastung natürlich abnimmt.
    Hier sind die 80%+ Netzteile zu fördern, diese müssen von 20% bis 80% Auslastung einen Wirkungsgrad von über 80% haben.

    Die Hochintegrierten Chipsätze wären zu begrüßen, genauso wie die Abkehr von Flash als Codec für Videos.
    Wenn mich nicht alles täuscht macht Youtube das ja vor, HQ und HD sind ja so weit ich weiß kein flash mehr.
    Und ich merks gelich mal an der CPU auslastung ….
    Flash ist Müll

  • Akuman

    “As a consumer you might think “So, what’s the problem?” – and the answer is complicated. Consumer expectations are very high – and when a product they perceive is a fully functional notebook doesn’t perform as well as most fully functioning notebooks they could set themselves up for disappointment. It’s a vicious cycle.

    Assuming you get caught in this cycle, how do you differentiate the higher performance machines from the Netbook equipped systems? ”

    Für wie dumm hält der denn den Verbraucher? Speccs durchlesen ist ja wohl nicht so schwer. Nicht jeder braucht unterwegs nen 3Ghz QuadCore.
    Dann noch das Beispiel mit der Kuh, eindeutig eher für Minderbemittelte geschrieben. Manche Leute drehen halt ab sobal sie etwas Zuspruch erhalten… Wenigstens schildert er somit seinen eigen Standpunkt indirekt sehr ehrlich!

    @Sasch: sign

    Gruß

    Aku

  • nama

    @shiru
    Das Netzteil stellt auch nur soviel Saft zur Verfügung wie die Komponenten zu dem Zeitpunkt brauchen + 20% Verlust durch Wärme etc. Die CPUs haben nicht umsonst Speedstep bzw. CoolnQuiet verpasst bekommen.
    Um 400 W auszunutzen braucht man schon ne Highend-Graka mit Dualchip wahrscheinlich. Im Idle sind die aber auch alle im grünen Bereich zum Glück. http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_285_sli/23/#abschnitt_leistungsaufnahme

  • animatio

    fast hätt’ ichs vergessen: was soll denn überhaupt der von der Industrie so gequälte Begriff “fully functional computer / notebook / laptop” als Argument gegen Netbooks als “primary computer”.
    Das ist doch nichts anderes als für die Dummen die Fusseln im Munde gedreht seit es “Computer” gibt.

    mal ganz abgesehen davon, dass “the first real computers were women … who worked as operators for the giant table calculating machines of the navies”

  • Jay

    Stromsparende Multi-Core-CPUs sind möglich. Die Centrino 2 Plattform für Notebook zeigt’s. Mein neues NB verbraucht gerade mal ~30 Watt und bietet mir, wenn nötig die gewünschte Geschwindigkeit. Seitdem ich damit mobil bin, nutze ich meine alten Desktop-PCs überhaupt nicht mehr (ein Sempron und ein Athlon 3800+). Und ich werde mir, wenn überhaupt, nur noch einen Nettop zulegen, der sehr stromsparend zu sein hat.

    Für mich liegt das Potenzial in den mobilen Geräten. Hier sind die Hersteller schon seit Jahren gezwungen, stromsparend zu arbeiten, da Akkulaufzeit nun mal eine großes Entscheidungskriterium ist. Zu hause kommt bei mir nur noch ein Multimedia-Server zum Einsatz, auf den ich mich On Demand mit meinem Notebook (und bald auch Netbook *g*) einlogge.

  • pajama

    also ein 400W Netzteil mit 80% Wirkungsgrad braucht nur dann 320W, wenn es voll ausgelastet wird.

    Raul hat schon recht: es muss den nicht stark informierten Verbraucher schon erklärt werden, dass da ggf. eine nicht ausreichende Power drinsteckt, wenn man sich nen 599,- 13.3″ Atom-Rechner kauft.
    Da werden auch Referenzpreise verzerrt (nach unten). Aber das schlimme für den informierten Verbraucher kann ich nicht 100%ig erkennen – sofern es den Herstellern gelingt etwas sauberes im Midrange und High End-bereich zu lieferen (und vom Low End-Bereich zu differenzieren).

  • http://www.webcam-reit-im-winkl.de saperalot

    den bericht unterschreibe ich so wie er ist. ich habe auch noch einen c64 und spiele ab und an defender ;-) habe selbst jahrelang basic programme geschrieben und auch aus zeitschriften abgetippt, das waren noch zeiten.

  • Akuman

    @ pajama: Ja da hast Du sicherlich recht. Pauschal alle Verbraucher für unfähig und unwissend zu erklären ist aber nicht OK finde ich. Seinen Blog lesen ja immerhin auch Verbraucher die sich ja dann automatisch auch informieren. Gerade solche fühlen sich ja angesprochen. Die anderen werden es nie erfahren… Und Firmen wie Sony bringen schon jetzt crap zu teuren Preisen (Vajo P). Durch noch agressivere Werbung und einzigartiges Design verkauft es sich trotzdem und die ganzen Fanbois freuen sich noch.
    Das hat aber dann nichts mehr mit der Hardwareausstattung an sich zu tun, sondern mit der Unternehmenspolitik! Zu anderen Preisen mit anderem BS hätte sogar das Sony eine Daseinsberechtigung in meinen Augen.

    Außerdem sind 140W im Idle immer noch sauviel verglichen mit einem Atom Chipsatz. Das ganze Gerede von 400W Netzteilen und Desktop-Systemen ist also am Thema vorbei.

    Gruß

    Aku

  • Holger

    Es gibt aber auch Anwendungen, die man mit einem C64, Amiga oder ST einfach nicht schafft: z.B. Bildbearbeitung. Meine digitale Spiegelreflex erzeugt Raw-Bilder mit 10 Megapixeln. Nix Besonders. Die werden von Photoshop in ca. 60 MB große TIFFs umgewandelt. Da braucht’s ordentlich CPU (gerne auch mehrere Kerne) und RAM. OK, 3D-Graphik nicht so sehr, obwohl Photoshop CS4 das ja angeblich irgendwie unterstützt.

    Also: Fette Hardware kann auch ihren Sinn haben…

  • inubu

    Sascha, ich muss dir zustimmen!!!

  • polymering

    Alles ganz richtig – aber alle machen mit!
    Der Hype um die Vista-Aero-Oberfläche ist in das Geschrei über die miserable Performance übergegangen und bei Win7 geht es wieder genau so los und dürfte ähnlich enden. Win7 beschäftigt die Hardware ähnlich exzessiv wie Vista und sein bemerkenswerter Vorzug, ein Netbook nicht zum Absturz zu bringen, wird in allen Blogs als “Innovation” gefeiert.
    Womit wir beim Thema wären: Innovation findet nicht in Richtung Funktionalität sondern in Richtung bunt und verspielt statt. Und bunt/verspielt kostet Ressourcen, z.B. kann man mit einem 5MB-Programm genau so DVD’s brennen wie mit einem 120MB-Klotz und 5MB-Freeware spielt sie dann ganz prima ab.
    Für die 5 Sekunden bis man eine Anwendung gestartet hat, kann der Desktop eigentlich auch aussehen wie er möchte – aber womit macht man sonst Marketing?
    Und das Marketing über Gimmicks funktioniert!
    Mit Geschmacksfragen kann man sich nämlich endlos und Medienwirksam beschäftigen, ohne am Grundkonzept zu kratzen.
    Das sieht nämlich so aus: Der Anwender braucht von den reichlich vorhandenen Ressourcen fast nichts, somit ist es am Betriebssystem diese auszunutzen und möglichst Umsatzwirksam zu überfordern.

  • Michael

    Stimme dem Artikel auch zu, mit den Ressourcen wird “schludrig” umgegangen. Besser wäre es sicher, den Code zu optimieren dass auch noch ein Uralt-PC das Programm einwandfrei handeln kann. Wichtig für mich ist nur, dass der PC schnell bootet (was ich bei den meisten immer noch vermisse, bis das OS mal ganz geladen ist, nutze Windows) und dass die Handvoll Programme, die ich brauche, auch laufen. Mein Dazzle läuft aber sicher nicht ruckelfrei mit einem alten PC, auch Encoden braucht Leistung. Für Office und Internet und “normale” Aufgaben reicht auch ein Netbook. Der Knackpunkt für langes ermüdungsfreies Arbeiten ist aber ein großer Bildschirm um die 15 Zoll und eine gute große Tastatur. Deshalb habe ich nun ein 13,3″ Notebook mit Centrino 2 und schliesse einen 22″ TFT an.

  • Kronos

    Jay : ich bin der meinung dass Centrino 2 nix mehr in Notebooks zu suchen hat sondern eben in Desktops gehört !
    30 W sind viel zu viel für ein mobiles Gerät, da brauch ich einen doppelt so großen Akku wie beim Netbook und komm immnoch nur auf 2/3 der Laufzeit.
    Alles über Pentium Dual Core M, sollte in Desktops.

    polymering Win 7 + Netbook = Absturz ?
    Das musste mir zeigen, sorry aber ich hab Win7 als einziges OS auf meinem 1000h und das einzige was mal aufgestürtzt ist war der Win Explorer und der war 10 sec später wieder da und alles war in Ordnung. und das ist ne Beta …
    Außerdem sieht Win7 nochmal besser aus als Vista ja, aber es ist 1. sparsamer und schneller und 2. bringt die Taskleiste mMn schon einiges an Useability (solange auch nicht MS Programme darauf Zugriffbekommen)

    Aber es scheint wirklich ein Problem in der Softwareentwicklung zu sein, früher musste alles ganz “sauber” programmiert werden, weil einfach nicht ,mehr Leistung da ist, heute wird auf Spiecherplatz sowieso nicht mehr geachtet, Arbeitsspeicher auch kaum, und CPU Leistung reicht eigentlich auch immer.

    Ion + Atom 2 GHzfür Nettops
    und einen entsprechenden Chipsatz mit wenig Grafikleistung aber HD …. für Netbooks
    vllt sogar da den atom auf 2 GHz hoch ziehen, dann brauch ich nur noch ne Dockingstation und mein Desktop darf ins Nirvana

  • KalvinKlein

    Wurzelziehen mit Grossrechner ?
    Der Trend ist westlich geprägt … Werbung…
    z.B. auch in der Autoindustrie/TV Branche/Beleuchtung/uvm….. jahrelang zu beobachten …
    Nun jammern alle … weil die Energie nicht unendlich ist …
    Neue grundlegend andere Konzepte hat kaum einer oder werden still aufgekauft und ruhiggestellt.. Ich denke da an Windanlagen wollte jahrelang keiner, Solaranlagen, Hybidmotoren….
    in der IT … Stromsparende Prozessoren/Genügsame Betriebssysteme gabs/gibts schon länger… Aber die wollte … keiner … Schneller höher, weiter … bis zum Bauchklatscher … Weltweit… nun jammern alle …
    Zurück zu den Wurzeln … nicht ganz, aber modern & effizient…

  • lafranconi

    Wirkliche Innovation für den Endanwender in den letzten 20 Jahren? Ich denke da kommt nicht viel zusammen. Ok, dann denke ich mal zurück an meine Apple II Zeiten und welche signifikanten Sprünge es gab:
    – “What you see is what you get” und GUI
    Wenn ich so an dies ersten Textverarbeitungen denke und den Krampf mit der Formatierung. Was war das für ein WOW, als ich auf der ersten Messe ne Apple Lisa gesehen habe. Die Bedienung wurde signifikant erleichtert und auch nicht wochenlang Geschulte konnten die Maschine benutzen.
    – Netzwerke
    Was, man muss nicht Dateien auf Disketten austauschen und kann mit Kollegen und Freunden auf einem gemeinsamen Dateien-Bestand arbeiten?
    – Medien auf dem Computer
    Auf einmal sind Inhalte auf dem Rechner, die viele Sinne ansprechen und nicht nur einfach “gelesen” werden.
    – DFÜ und dann Internet
    Hey, ich krieg Informationen von Wildfremden und kann die auch an meinen Errungenschaften teilhaben lassen.

    Vielleicht hab ich ja noch ein, zwei Punkte vergessen. Aber im großen und ganzen war der Rest einfach nur eine Verbesserung schon vorhandener Technologien und nichts wirklich Innovatives (für den Endanwender).

    Und was hat das mit Netbooks zu tun? Naja, ich sehe sie nicht wirklich als Innovationsbremse. Im Großen ganzen kann ich mit ihnen das Selbe tun, was ich auch mit normalen Laptops/PCs machen kann. Ja, langsamer und unkomfortabler, da technologisch leicht veraltet, aber mehr auch nicht.

    Was ist dann der Unterschied zu normalen Laptops? Ich würde sagen eine Bedürfnis-Verschiebung. Kunden legen weniger Wert auf Rechenleistung und Performance. Preis und Mobilität sind wichtiger geworden.

  • Marakeshexpress

    @Holger
    Ich sehe das ähnlich. Es bringt mir nichts, wenn das System an die Anforderungen angepasst ist, weil ich einen Großteil einfach ein PDF offen lasse und es nicht bewege oder surfe und Emails schreibe, mir darauf hin einen Atomprozessor einbaue und dann mir bei anspruchsvolleren Applikationen überlegen muss, ob die überhaupt laufen. Photoshop >= 10 MP Fotos bearbeiten oder einfach nur mal das Springerproblem lösen.
    Aber ansonsten bin ich schon der Meinung, dass der Trend Netbook keine Inovationsbremse sondern eine Chance zum weiterentwickeln ist. Jede Entwicklung hat ihre Grenzen. Aber wo würde denn die Entwicklung hingehen, wenn keiner der Prozessorherstellern Leistungsverbesserungen durchführen? Am Stromkonsum wird und wurde ja auch schon gedreht mit variabler Taktrate, etc. Zaubern können die Hersteller, wie alle andern auch nicht. Gewisse physikalische und elektrische Grundgesetze lassen sich nicht so einfach umgehen. Wenn sie ein Mittel hätten, würden sie es anwenden und verkaufen. Nur um den Konkurrenten auszustechen.
    Die Forderung nach ressourcensparenden Programmen halte ich für ziemlich unkonkret, da es eigentlich nicht nachweisbar ist, dass eine Software besonders schlecht geschrieben ist.

  • Sascha

    “Die Forderung nach ressourcensparenden Programmen halte ich für ziemlich unkonkret, da es eigentlich nicht nachweisbar ist, dass eine Software besonders schlecht geschrieben ist.”

    Jedes Mal wenn ich die Java Kiste aufmache, kann ich davon ein Lied singen. Ein Blick auf den CPU Load genuegt da.

  • animatio

    “Die Forderung nach ressourcensparenden Programmen halte ich für ziemlich unkonkret, da es eigentlich nicht nachweisbar ist, dass eine Software besonders schlecht geschrieben ist.”

    und das wird nach mehr als 60 Jahren Komputergeschichte ohne Rückenschauern und Nackenhaaresträuben mal locker ins Net abgelassen …… den Herren Suse, Assembler und Co würde sowas sonst was tun …..

  • Max

    Ich kann Sascha nur uneingeschränkt zustimmen. Sicher möchte ich nicht mehr mir einem C64 arbeiten, aber die Entwicklung geht wirklich in die falsche Richtung.
    Wo ist der echte Mehrwert einer aktuellen Textverarbeitung, die hunderte Megabyte an RAM benötigt, gegenüber Textverarbeitungen vor 5 Jahren? Alles was heutige Versionen mehr können benötige ich und vermutlich auch die meisten User solcher Programme nicht. Aber Microsoft Word 5.5 für DOS könnte von den HW Voraussetzungen heute auf jedem Taschenrechner laufen.

  • Marakeshexpress

    Das liegt aber größtenteils am Konzept von Java und an der VM, die sich ja schon massiv gebessert hat.
    @animatio Kannst du die Aussage konkretisieren? Was würde der Herr Suse und Assembler machen?

  • Munro

    Ach ist doch derselbe Spaß wie mit den Autos. Fragt man den Verbraucher, was er will, dann sagt er ein sicheres, sparsames, umwelt- und familienfreundliches Auto. Was kauft er sich? Den spritfressenden Boliden, der in keine Parklück passt.

    Bei den PCs auch nichts anderes. Natürlich kann man jetzt der Industrie die Schuld geben, aber die stellt auch nur her, was nachgefragt wird. Wenn sich keiner auf die Computerwettrüstspielchen einlässt, wird auch entsprechend andere Hardware angeboten. Nachfrage schafft Angebot und so funktioniert nun mal Marktwirtschaft.

    Aber in Deutschland sucht man natürlich immer einen Sündenbock und das muss jemand anderes sein. Die böse, böse Industrie ist schuld. Die bösen, bösen Manager sind schuld. Überhaupt sind alle anderen schuld außer Mama. Bei sich selbst anzufangen und sein Konsumverhalten dementsprechend zu regeln, ist bei den meisten zuviel verlangt.

  • http://www.dummzeuch.de Thomas Mueller

    Der C64 hatte einen 6510 Prozessor, allerdings war der kompatibel zum 6502. Und dass er umgerechnet 1200 Euro gekostet hat, kann ich kaum glauben. Das kann hoechstens gewesen sein, als er gerade rauskam. Ich habe ihn fuer unter 1000 DM gekauft, zzgl. der Datasette, die extra kam (Ein Computer ohne Massenspeicher, das muss man sich mal vorstellen! Und: Nein, es gab auch keinen Netzwerkanschluss ;-) )

    “Entwickelt endlich Software, die schonender mit den vorhandenen Systemressourcen umgeht.”

    Naja, als Softwareentwickler (und Leiter der Abteilung) sehe ich da ein grosses Problem: Die Arbeitszeit eines Entwicklers ist teuer, schnellere PCs sind billig. Ausserdem will kein Kunde fuer die Softwareentwicklung bezahlen.

    Wenn wir also in Zukunft mit schwachbruestigen Rechnern arbeiten sollen, dann muessen wir mehr Arbeit in die Optimierung der Software stecken, der Kaeufer spart also 100 Euro an Hardware, muss aber 1000 Euro zusaetzlich fuer die optimierte Software bezahlen.

    Irgendwie glaube ich nicht, dass das passieren wird.

  • Matthias

    Das es mit java auch anders geht kann man sich wunderbar bei Spin.de anschauen.

    Ansonsten stimme ich dem Artikel zu, auch wenn diese Diskussion zum Schluß eh im Nirvana versinken wird. Letztlich geht es – wie überall – nur noch ums Geld. Wie sollen Hard- wie Software hersteller weiter Geld vedienen, wenn sie nicht weiter ihre “inovativen” Funktionen einbauen, wenn sie auch noch so unnütz sind…?

    Die Herren mit den teueren Anzügen im Konzern-Managment träumen vielleicht selbst von Inovationen wie Sascha es beschrieben hat, können das aber nicht durchsetzen, es könnte ja der Umsatz einbrechen, und damit steht dann die Kündigung im Haus.

    Alle, wirklich alle (auch wir) sind doch nur noch Marionetten, in einem Theater das wir selbst geschaffen haben!

    So bevor das ganze noch prophetischer klingt, lass ichs mal :D

  • Kronos

    Munro : sag mir mal was vergelichbares zu den aktuellen Netbooks und Nettops was es vor 2 jahren auf dem ENDKUNDENMARKT gab.
    Also hinsichtlich wenig Leistung, wenig Verbrauch.

    Der Endkunde hat immer nur die dicken Intel und AMD Rechner zu Gesicht bekommen.

    Der Eee 1001 war damals ca das was ich wollte, ein günstiges Subnotebook mit einem Singlecore. Nicht diese 3000 € Teile mit Dualcore und dadurch kurzer Laufzeit.
    Ich bin Asus verdammt dankbar für diesen Schritt.
    Intel eigentlich auf für den Atom, auch wenn sies in letzter Zeit wohl etwas versauen wollen

    @ Auto jap gutes Beispiel so ist der Mensch, die Sportlichkeit eines Ferraris, den Komfort einer Großraumlimusine, zum Preis eines Toyota iQ
    Und dann am besten noch auf die Märe der Umweltfreundlichkeit reinfallen, denn Elektroautos sind bei aktuellem Strommix genauso CO2 “intensiv” wie n aktueller 1×0 PS TurboDiesel ….
    aber wo bin ich jetzt schon wieder

  • UKausB

    kann jeden satz von sascha unterschreiben..

  • http://netbookjournal.de windman

    Also ganz schön lange und gute Kommentare hier. Mein Kompliment an Euch alle!
    @ Sascha: Volle Zustimmung von mir !
    Du hast die Sache sehr deutlich auf den Punkt gebracht.
    Da könnte sich mancher ne dicke Scheibe abschneiden.

    Vor nem guten Jahr hast du schonmal etwas geschrieben über dicke Rechner + Internetsurfen.
    Diese Ansicht hat mich mal ein wenig nachdenken lassen und zwar über mein eigenes Webverhalten.
    Brauche ich eigentlich so eine “dicke Kiste” fürs Emailen,Surfen,Skypen etc.?
    Die Antwort war NEIN !
    Also Netbook gekauft und seitdem verstaubt der Desktop fast.
    Also sag ich nochmal artig DANKE an Sascha das meine Stromrechnung nicht so hoch ausgefallen ist, ich aber trotzdem alle meine Webbedürfnisse + Verpflichtungen erfüllen konnte.

  • http://www.media-planet.org Nash

    Na ja das Software schlechter geschrieben ist heutzutage, zeigen eigentlich Spiele sehr deutlich ;)
    Und damit meine ich nicht die ganzen Bugs und Patchs sondern eher deren Hardwareanforderungen, welche dann auch nicht mit mehren CPU´s (Kernen) bzw. Grakas korrelieren! Wäre dort gute, sauberer Code verwendet, dann würde das auch damit schneller laufen!

  • LuckyStrik3r

    @ Munro

    Du hast teilweise schon recht, aber es gibt nunmal anwendungen auf die manch einer, zB ich , angewiesen ist. Diese sind extrem resourcen fressend und da gibt es auch keine alternative oder die möglichkeit diese besser zu programieren. Am liebsten hätte ich einen PC mit 16 cores und 64gb ram ^^ aber für normale consumer würde die nvidia ion plattform dicke ausreichen, wenn man kein hardcore gamer ist. also ich freue mich schon richtig auf ein ion netbook, was ich dann wahrscheinlich als mein haupt pc benutzen werde.

    LG

    Brian

  • MarioWario

    Die Wahrheit ist nie eindeutig. Microsoft kastriert Netbooks auf 160 GB HDD – Atom-CPU – 2GB RAM. Als Ergebnis haben wir Netbooks unter ihren Möglichkeiten – vom Design her wäre ein 2GB onBoard RAM (f. 32b. OS) und eine 320 GB HDD besser – Nutzungsdauer, -art, Resourcenverbrauch, etc. würden sich verbessern. Übrigens halte ich integrierte Accu’s auch für die technisch bessere Lösung.

    Von der Technologieseite ist es nix besonderes an HDD – antiquiert. Wenn’s um effiziente Technologie geht ist wohl ein iPhone oder eine PSP eher ein Modell für eine HiTech-Zukunftsvision als ein klopsiger PC an dem ein User an seinen Gameparametern schraubt. Selbst bei Aufgaben wie 3D ist ein Game-PC einem intelligenten System aus Kleinstrechnern unterlegen – die Leute sind halt nur mental blockiert und dann sind andere für das Defizit an Fortschritt verantwortlich.

  • http://linmob.blogspot.com p3t3r

    Nun, generell muss ich Sascha da absolut zustimmen. Wenn ich mich jetzt an einen alten Apple mit 32MHz 68030 CPU und 12MB Ram (für System 7.6.1) setze, dort die Textverarbeitung starte vermisse ich nichts gegenüber einem Brocken wie OpenOffice (wobei auch das (zumindestens in Version 2.4.1) tadellos auf meinem One A120 mit Linux läuft).

    Was aber vielleicht einbezogen werden muss: Innovation kostet Geld. Wenn man nun mal annimmt, dass die Margen im Netbookmarkt signifikant kleiner sind, als die im High-End-PC-Markt, so kann man sagen, das Netbooks (sofern ihr Marktanteil zu Lasten der klassischen Systeme steigt) Innovation bremsen, da es schlichtweg geringere Budgets für Innovation, F&E gibt.

  • Toni Borgetto

    @Thomas Mueller: Bei der Gegenüberstellung von Hardware- vs. Entwicklerkosten solltest du aber bedenken dass wir hier nicht von Individualsoftware-Entwicklung sprechen (also Software die speziell für ein Unternehmen angefertigt wird), sondern vom Massenmarkt.

    Die 1000€ an zusätzlichen Kosten für effizientere Programmierung fallen genau einmal an: beim Entwickler. Die 100€ für schnellere Hardware damit eine schlampig programmierte Software zügig läuft sind dagegen bei jedem einzelnen PC fällig, d.h. viele Millionen mal weltweit!

  • Pingback: Are netbooks bad for the industry?

  • Netbooker

    @Toni, die 1000 für Software falen genauso oft an wie die 100 Euro für die Hardware.

  • TJ

    …am meisten regt mich der Hardwarehunger von Software und der Umgang mit der Software auf. Aber damit meine ich jetzt keine der “großen” Anwendungen, sondern Adobes Flash.

    Für mich ist Flash für Videos (youtube) eine nette Sache, auch der alte myspace-Player war ok. Doch mittlerweile hat z.B. myspace einen riesiges Playerungeheuer geschaffen, dass richtig Ressourcen benötigt. Auch die ganzen unsäglichen Flashsites, die keinen Mehrnutzen haben und auch oft einfach nur mit simplem css machbar wären (beste Beispiel: burgerking.de) sind eine Plage.

    Aber nun mal weg von meinem Flashärger. Irgendwie hoffe ich ja auf die ARM-Maschinen mit Linux – nicht weil Flash so toll damit wäre, sondern weil es ein konsequentes Sparkonzept ist. Was mir von der Idee sehr gefällt. Gerade bei PCs verfahren ja viele Leute nach dem CHIP-Prinzip statt nach dem c’t-Prinzip: statt etwas nach individuellen Bedürfnissen auszuwählen (c’t) wollen sie lieber “DAS SUPERALLERNEUESTEBESTE!!!1(tm)” mit der Hitlistenplatzierung – egal ob sie das denn nun brauchen oder nicht.

  • HERUsai

    @shiru:
    ich teile deinen gedanken, allerdings ist er von dir nicht ganz richtig formuliert. ein netzeil, wo 400w draufsteht, stellt nur dann seine 400w für die hardware bereit, wenn sie benötigt wird. also nicht denken, dass der rechner immer 400w braucht, egal was du gerade machst ;)
    ein nicht optimierter high-end-pc verbraucht im surfbetrieb nicht mehr als 150w. und das ist die maximalgrenze.

    deine schätzung zur auslastung der cpu: ich schätze, dass eher 80% der privaten pc-nutzer ihren pc im schnitt 15% auslasten (hier zählen jetzt auch notebooks dazu).

    aber wenn man sich als nutzer nur ein klein wenig mit energiesparen auseinander setzt, wird man schnell zum erfolg kommen. auch leistungsstärkere systeme als netbooks können sparsam sein :)

  • paschko

    Kann in einigen Punkten nur zustimmen! Die Entwicklung geht in die falsche Richtung.
    Warum kostet das billigste Standard-Notebook bei MM meist ~500€? Warum wird da mit Core2Duo (oder auch noch Quad), 4GB Ram und sonstigem Schnickschnack geworben? Die meisten User wollen nur Internet, Office, evtl sogar noch Multimedia.
    Da würde es eine CPU von vor X Jahren noch tun (mein A64 reicht selbst für Photoshop, und das obwohl das Teil nur noch ‘n Appel und Ei kostet).

    Da gehen Netbooks und Nettops schon in eine bessere Richtung. Da stellt man sich was auf den Schreibtisch und hat plötzlich nur noch 1/10 Stromverbrauch, es ist leiser, schick und war auch noch günstig.

    Trotzdem Dinge, die mich stören:
    1024×600 ist eine Auflösung von vorgestern, mit sowas hätte man nie anfangen sollen
    Der Chipsatz des Atoms könnte noch stromspaarender sein und am Besten HD usw encodieren können!
    Weg mit Windows! Ich dachte die Netbook-Welle sei die große Chance für Linux, falsch gedacht…

    Ein paar Gedanken von mir, die bei WEITEM nicht ganz ausgeführt sind, also zerreist mich nicht in der Luft!;)

  • http://netbooknews.de windman

    @ paschko:
    Du hast da grundlegend schon recht mit.
    Alle Kommentare hier sind von Leuten geschrieben die sich mit der Materie auskennen und sich auch damit befassen. Der Durchschnittsbürger hingegen denkt sich doch gar nichts dabei und maschiert doch in Richtung MM & Co.

    Ich wage mal den Prozentsatz der Leute die bei Mediamarkt & Co. nen Rechner kaufen auf 90% zu setzen. Diese 90% haben sich auf div. Seiten im Netz “schlau gemacht” (wie bei CHIP.de,danke TJ). Auf diesen Seiten bkommen die den Unsinn doch schon beigebracht das jeder Rechner mindestens “Quad” sein muss und eine Grafikkarte drin sein muss für die man schon ein eigenes Atomkraftwerk benötigt.
    Und wenn dann die erste Stromrechnung kommt ist das Geheule doch gross.

    Aber es scheint auch dank dieser Seite ein Umdenken stattzufinden.
    Wenn wir es nicht in unserem Verhalten ändern passiert sowieso nichts.
    Deshalb finde ich die Aussage vom AMD-Chef das Netbooks bald wieder verschwunden sind sehr seltsam. Es deckt sich irgendwie garnicht mit dem was ich hier in den Kommentaren schon gelesen habe.
    Meiner Meinung nach beginnt die Revolution mal gerade erst.

  • LuckyStrik3r

    @ netbooker

    achso weil die software für jeden aufs neue programmiert wird oder wie?

    die 1000 euro fallen nur einmal an

  • Jan

    Als ob Innovation immer nur in Richtung Leistung gehen kann…
    Netbooks können genauso gut einen ANreiz geben viel leistung in GERINGER GRÖSSE UND VERBRAUCH zu entwickeln, denn da Mangelt es doch ein wenig zur Zeit.
    Leider sind alle Netbooks irgendwie gleich.. sehr schade.. gäbe es net diese Limitierungen, hätten wir massig Innovationen und net son Einheitsbrei.

  • Ennox

    Sascha, ich kann Deinen Artikel nur zu 100% unterschreiben. Mir hängen diese Monsterpakete und Riesenausstattungen seit Jahren sowas von zum Hals raus, ich kann gar nicht sagen, wie sehr. Irre grosse, nicht optimierte und saulahme Treiber- und Softwarepakete zwingen einen ständig zum Aufrüsten. Es ist zum Kotzen. Man hat stellenweise den Eindruck, als würden blutige, grottenschlechte und völlg unbegabte Anfänger in VisualBasic programmieren. Ohne End- oder gar Qualitätskontrolle, versteht sich. “Taugt schon”.

    Aber das Problem ist natürlich vielschichtiger. Dass wir genetisch auf “mehr” programmiert sind und sich unser Kaufverhalten fast schon automatisch danach ausrichtet macht es nicht leichter. Die Hersteller bestehen ja auch aus Leuten, die genau dem selben Programm unterworfen sind. Jede Menge Bauchdenken ist dabei und nur ganz wenig Sachkenntnis, auf die breite Masse bezogen. Mit anderen Worten: diese monströsen Erscheinungen sind in erster Linie das Resultat eines psychologischen Reife-Problems, kein direkt marktwirtschaftliches. Die Käufer wissen einfach nichts darüber, es interessiert sie nicht oder sie sind damit überfordert. Meistens letzteres, und auch das kann man leicht nachvollziehen – sehr komplex, das ganze, und man hat noch anderes, wichtigeres zu tun als dauernd den neuesten technischen News nachzuhecheln.

    Ein wenig Aufklärung auf breiter Front könnte aber schon einiges bewegen. Man könnte es für “in” erklären und etwas ökologisches Bewusstsein wecken. Wenn die Geräte weniger verbrauchen, werden auch die Softwarehersteller etwas in die Pflicht genommen – die Books werden langsamer laufen, was bedeutet, dass die Software mehr optimiert sein sollte, um einen flotten Eindruck zu vermitteln. Das ist durchaus ein Kaufargument.

    Beispiel: Der Stromsparfaktor von einem Netbook gegenüber einem durchschnittlichen Desktop ist schon enorm, da er ungefähr bei 10 liegt. Mein Aspire One zieht bei guter Auslastung ca 15 W (gemessen) – auf 24h-Betrieb bezogen auf 365,25 Tage/Jahr sind das rund 2 Euro/Monat oder 24 Euro/Jahr. Ein durchschnittlicher, heute handelsüblicher Durchschnitts-Desktop benötigt rund 150 Watt plus Monitor, und nicht wenige Monitore (auch LCD!) ziehen fast soviel wie der Rechner. Das bedeutet mehr als Faktor zehn allein bei den Kosten. Eine Gamer-Kiste nimmt sich übigens auch mal 250W + Monitor.

    Ob das wirklich hilft? Ich wage es schwer zu bezweifeln, wenn man hier so mitliest. Viele krähen schon nach Dualcore, mehr Gigahertzen, fetten Grafikkarten – statt sich mal ihrer Software zu widmen, zu sehen, ob es nicht was flotteres gibt als das fette Ressourcenschweinchen, an das sie sich schon gewöhnt haben. Wohlgemerkt: hier sind wir schon bei Leuten, die sich ein wenig damit beschäftigen. Das Gros der Käufer sind völlig unbedarfte Laien, die ihren Rechner auf Kaufempfehlung von Kumpels/dem Verkäufer oder einfach nach dem gefühlten Preis-Leistungsverhältnis aussuchen. Ich kenne sogar 2, bei denen das Outfit eine entscheidende Rolle spielt. Nicht mal so wenige wollen Angeberkisten, mit denen sie einfach auftrumpfen wollen – das ist denen wichtiger als alles andere. Preis egal, Watt egal, nur geil vor den Kumpels muss er sein, bringt Bewunderung ein und hebt (für ungefähr 3 Tage) das ansonsten schwache Ego.

    Wie soll man bei solchen Leuten auf einen grünen Zweig kommen? ;-/

  • Horatio

    @pascho

    1024×600 ist für Netbooks eine logische Grösse. Mit noch höheren Auflösungen bringt man zwar mehr auf den Bildschirm. Das wird dann aber auch kleiner. Da längst nicht alle Benutzer 15 sind und erstklassig sehen und auch nicht ständig mit dem Gesicht über der Tastatur kleben können (Haltungsschäden), müsste man für höhere Auflösungen den Bildschirm vergrössern. Und dann sind wir wieder beim Standard-Notebook.
    Wenn man jetzt den Rachen nicht voll kriegt und anfängt, immer mehr für die Kleinen zu fordern, wird man AMD dann recht geben und das Netbook hätte keine lange Überlebenchanche. Irgendwo muss man bei einem kleinen Netbook Abstriche machen. Was ist eigentlich gar nicht so schwierig ist, denn so schlecht sind die überhaupt nicht ausgestattet, wie manche tun. Mit den heutigen Auflösungen kommt man eigentich gut klar – es wird immer Seiten und Anwendungen geben, die selbst den 1280er sprengen. Wem die 1024×600 nicht reichen, kann immer noch auf VirtualScreen zurückgreifen: einfach einen grossen Monitor (1920 x 1080) einstellen und schon hat man die mehrfache Arbeitsfläche. Schaffen momentan so ziemlich alle Netbooks.

    Dass einige Books mit 8.9-Screens noch genug Platz für einen 10.2er hätten steht auf einem anderen Blatt.

    Ansonsten stimme ich mit Dir überein: das ganze ginge noch stromsparender und wohl auch mit Passivkühlung.

    Generell verstehe ich unter “Innovation” eine Verbesserung. Das bedeutet nicht automatisch mehr oder grösser. Nur besser, effektiver. Da ist bei allen Rechnerarten noch viel Luft. Optimierte Treiber und Programme und modulare Installation wären ein richtiger Weg. Weniger Features, aber die optimaler. Das Netbook ansich ist schon eine gute Innovation. Jetzt muss nur noch die Software nachziehen. Das bedeutet aber auch, dass der User bereit sein muss, sich notfalls auch umzustellen und sich in ein anderes Programm einzuarbeiten. Wer das nicht kann/will, darf sich auch nicht beschweren, wenn die Applikationen immer mehr grössenmässig explodieren – und wieder mal ein Rechnerupdate fordern. “Bescheidenheit” ist das Zauberwort. Kennt das noch jemand oder ist das nur mir altem Rechnerfossil noch ein Begriff? ;-)

  • Phillip

    @MarioWario

    sorry, aber: nein, nein, und nochmals nein ;-)

    je mehr man den softwareherstellern zur verfügung stellt: sie werden es schaffen, das nochmal um 40 prozent zu übersteigen. von daher wundert mich die ms-beschränkung etwas. die sind doch sonst so dahinter, die ressourcen anderer saftig vollzukleistern. die werden doch nicht etwa wirklich mal ein optimiertes windows basteln wollen?
    weiter: je mehr onboard (fix aufgelötet) oder eingebaut ist desto problematischer die reparatur im fehlerfall nach der garantie. wirtschaftlich und oekologisch gesehen definitiv ein schritt in die falsche richtung. im sinne des verbrauchers jedenfalls. den hersteller freut ein neukauf natürlich.
    drittens: die hd hat immer noch ein paar sehr entscheidende vorteile: erstens sehr viel öfter beschreibar, zweitens erheblich bessere schreibraten, viel höhere kapazitätsdichten und insgesamt ist die laufzeit bei einer technisch einwandfreien standard-hd deutlich höher als bei einer derzeitigen top-ssd. über den preisunterschied müssen wir uns ja nicht unterhalten, oder? da muss flash schon noch sehr viel besser und preiswerter werden, bevor das eine wirklich ernstnehmbare alternative wird.

    deinen letzten satz dagegen kann ich nur voll unterschreiben: “die Leute sind halt nur mental blockiert und dann sind andere für das Defizit an Fortschritt verantwortlich.”.

  • Phillip

    @Munro

    völlig richtig. mit einer einschränkung: die industrie ist in der tat sehr oft “schuld”. nämlich dann, wenn das angebot nur aus beulenpest, wundbrand und cholera besteht. dann hat man nicht viel wahl, hat sich was mit funktionierender nachfrageregelung.

    und ja: die bösen manager (*) sind alles andere als unschuldslämmer. deren unendliche gier und mangelhafte moralische einstellung ist massgeblich dafür verantwortlich, dass alles radikal gekürzt wird, was prämienmindernd sein könnte. zum beispiel die qualität. auch jeder, der aktien kauft, auch der kleinaktionär, und eine satte dividende erwartet, ist sehr wohl am verfall der guten sitten und der qualität der ware beteiligt. soll ja keiner darüber jammern, der das eine oder andere aktienpaket besitzt.

    (*) es gibt aber nicht nur verkommene manager. leider sind es unter 10%, der rest versaut deren ruf mit.

  • 1st1

    Auch ich habe meine ersten Schritte mit 8 Bit gemacht, Basic auf dem 600XL eines Freundes, jahrelang selbst einen Brotkasten gehabt (und habe ihn und einige weitere C64 noch immer im Keller), der dann zunächst durch einen 520ST ergänzt wurde, dem dann weitere immer größere STs und auch ein Amiga 500 folgten. Ich habe mit den Rechnern fesselnde Spiele gespielt, nächtelang Arcanoid, Popoulos, Ballerburg, Little-Computer-Peoples, Siedler-I, usw. Die Spiele damals haben trotz ihrer aus heutiger Sicht primitiven Grafik und Komplexität, vielleicht aber auch gerade deswegen, einen riesen Spaß gemacht, und da ich die Hardware und die Disketten alle noch habe, und soweit es ging auch auf den PC als Images gesichert habe, kann ich die ganzen Spiele von damals noch spielen, auf der originalen Hardware, und auf dem Emulator, natürlich auch auf meinem AAO. Ich habe damals auch programmiert, die Homecomputer waren was die Hardware und die Betriebssystemfunktionen angeht, noch überschaubar, und es hat besonderen Spaß gemacht, Dinge auf den Rechnern zu programmieren, die sie eigentlich garnicht konnten, das war besonders interessant, Digitalsound und Overscan auf dem C64 und ST, 4096 Farben gleichzeitig auf dem ST, und lauter solche Dinge. In der im Blog erwähnten Demoszene war ich auch aktiv. Das war reizvoll. Heute reizt mich das nicht mehr, an die Hardware moderner PCs kommt man kaum noch dran, und sie ist überall anders. Man kann eigentlich nur noch das programmieren was ohnehin durch vorgegebene APIs vorgesehen ist. Und ich kann bestätigen, damals musste man mit dem auskommen, was man hat. Da wurden dann C-Compiler-Kompilate mit dem Bugaboo-Debugger in Assembler handoptimiert, oder gleich Assembler geschrieben, um das letzte aus der Kiste rauszuholen, damit das noch ein bischen schneller lief. Mit dem PC war das ruckzuck vorbei, Programmoptimierungen kamen allgemein aus der Mode, wenn das Programm oder Spiel nicht schnell genug läuft, Prozessor, Ram,Platte, Grafikkarte aufrüsten, geht schon. Da kommt dann ein Acrobat-Reader mit 45 MB bei raus, wo es auch ein Foxit-Reader mit 10 mal so kleinen Installationspaket es auch genau so gut täte. Verschwendung pur. Und aus genau dem Grund rennt die Mehrzahl der User ständig der neuesten Hardware hinterher, weil die nächste Programmversion noch aufgeblähter ist. Signum!, eine Textverarbeitung für den Atari ST, die ein ausgezeichnet gutes Druckbild (durch mehrfach übereinander drucken) selbst auf Nadeldruckern liefern konnte,passte inklusive ein paar Dutzend Dokumente auf eine 720er Diskette, Kilobyte meine ich, und heute? Sicher ist die Software heute leistungsfähiger geworden, aber wer nutzt all diese Funktionen? Warum müssen Programme in einer Script-Sprache (Java, Javascript, .NET, Flash, etc.) entwickelt werden, die erstmal vom Prozessor zur Laufzeit übersetzt werdenmuss, damit er sie verarbeiten kann? Ich weis, das BASIC auf dem C-64 war auch nix anderes, aber das war wenigstens direkt nach dem Einschalten da.

    Bis vor ein paar Jahren lieferten sich die Hardwarehersteller ein massives Gigaherzrennen ohne Rücksicht auf Verluste (ich meine das doppeldeutig). Dann kamen AMD und Intel an die scheinbar magische 4 GHz Barriere und scheiterten bei vertretbarem Kühlungsaufwand. Plötzlich war wieder effizientes Design gefragt, geschickteres Prozessordesign, Parallelität und weitere Optimierungen, zunächst zeigte Intel mit dem Centrino AMD und uns, was mit Performance pro Watt machbar ist, und das führte dann über den Core und Core2 schließlich auch zum Atom, wobei AMD bei diesem Performance/Watt früher Intel weit vorraus war, und jetzt nur noch hinterher rennt und beim Thema Netbook-Prozessor alle viere von sich streckt.

    Dass jetzt auf der User-Seite die Einsicht kommt, dass man auch bequem mit einem Netbook/Nettop die meisten Aufgaben komfortabel erledigen kann, ist ein guter Trend zugunsten der Umwelt (Stromverbrauch) und der Betriebskosten. Vor 10 Jahren hat man mal versucht,das mit “Total Cost of Ownership” auszudrücken und zu messen, ist aber irgendwie vergessen gegangen. Man kann sein Geld sicher sinnvoller ausgeben, als für überdimensionierte Hard- und Software und Stromverbrauch. Doch das fordert ein gewisses Umdenken, Selbstbeschränkung und Bescheidenheit. Aber wenn man mal mit 640×400 in Schwarzweis auf dem Atari mit Calamus ansprechende Dokumente gestaltet hat, dann kommen einem 1024×600 eines Netbooks geradezu gigantisch vor.

    Wenn ich zurückblicke, ich glaube, seit dem ich den ersten PC gehabt habe, und damals ganz langsam die ersten Notebooks, allerdings damals noch unbezahlbar teuer, kamen, schon damals wollte ich schon sowas haben, was man heute Netbook nennt. Einen Computer, der wenig kostet, und den man überall hin mitnehmen kann. Das wollte ich schon immer.Das erste was ich mir leisten konnte, das war um 1990 herum ein Atari Portfolio. Den habe ich rund 14 Jahre benutzt, naja, nicht ganz, durch die häufige Benutzung habe ich drei Stück verschlissen. Zu Pofo Nummer 4 gesellte sich dann ein günstiges gebrauchtes Notebook. Für einfache Sachen, immerhin ist da eine kleine Tabellenkalkulation drauf,die man auch in Excel und Openoffice importieren kann, nutzte ich weiterhin den vierten Pofo weil er portabler ist, und für die aufwändigeren Sachen unterwegs schleppte ich den Thinkpad mit. Beide sind nun durch den Acer Aspire One ersetzt, wobei ich hier (und auch schon auf dem Thinkpad) einen Pofo-Emulator laufen habe, weil dessen Progrämmchen für einfache Aufgaben immer noch unschlagbar schnell sind. Natürlich habe ich auch noch einen fetten PC unter dem heimischen Schreibtisch, ein Relikt aus meiner monatlichen Aufrüstphase um noch die neusten Spiele mit annehmbarer Framerate spielen zu können, aber den schalte ich seit ich den AAO habe, auch nur noch ein, wenn der AAO wirklich überfordert wäre, Fotobearbeitung, Videos schneiden und so. Zuletzt umgebaut wurde der vor 2 Jahren, um ihn fit für Vista zu machen, mehr Speicher und eine DX9-taugliche Grafikkarte, der Rest der Hardware hat jetzt auch schon 5 Jahre auf dem Buckel und reicht mir vollkommen.

    Übrigens sehe ich hier starke Parallelen zum Automarkt. Parallel zu Netbook und Nettop sorgt dort Dacia mit seinen günstigen und scheinbar recht guten Autos für Erfolg, und über allem schwebt der mögliche europaweite Verkaufsstart des Billigautos schlechthin, des Tata Nano, der etwa den Charme eines ASUS Eee-PC 7G haben dürfte.

  • Rockford

    Hallo!

    Ich kann auch nur zustimmen. Mein meisst genutzter Computer ist seit ich ihn im April gekauft habe mein Sammy NC10 Netbook! Der Power reicht dicke für Mails + Surfen + Musik hören etc. aus. Praktisch wäre noch so eine Dockingstation wie es jetzt von Gigabyte gibt. Ich wäre auch dafür das die stärker auf Effizienz + Akkuleistung gehen (achso und bitte keine Schminkspiegeldisplays).
    Windows habe ich auch keines drauf sondern Ubuntu, hoffe da basteln die auch noch was dran, dass das länger mit dem Akku auskommt. Man kann ja bei Soft und Hardware ansetzen um Energie zu sparen. Bin mal gespannt was in der Richtung noch so kommt.

    Rockford

Trackbacks & Pingbacks

  1. Pingback: Are netbooks bad for the industry?