DVB-Cube <<< Das deutsche PC und DVB-Forum >>>

PC-Ecke => # Hard-und Software Allgemein => Thema gestartet von: SiLæncer am 09 März, 2005, 16:37

Titel: Computer-Geschichte...
Beitrag von: SiLæncer am 09 März, 2005, 16:37
Die legendäre Rechenmaschine Z22 hat es als erste Rechenmaschine dieser Art in ein Kunstmuseum geschafft. Der nach seinem Erfinder Konrad Zuse (1910-1995) benannte Computer ist am heutigen Mittwoch in Karlsruhe offiziell dem Zentrum für Kunst und Medientechnologie (ZKM) als Dauerleihgabe des Landes Baden-Württemberg überreicht worden. Die Z22 -- von den Fans liebevoll "die Zuse" genannt -- gilt als der älteste noch voll funktionsfähige und originalgetreu erhaltene Röhrenrechner der Welt.

Als Herzstück der ZKM-Ausstellung "Die Algorithmische Revolution", die sich mit der Durchsetzung algorithmischer Prinzipien im täglichen Leben auseinander setzt, soll die 1,5 Tonnen schwere Computeranlage mit der Seriennummer 13 nach Museumsangaben während der Öffnungszeiten der Ausstellung ohne Abschaltung laufen. Die "Innereien" der Maschine sind beleuchtet und durch nachträglich ins Computergehäuse eingelassene Fenster zu sehen.

"Es ist eine in der Tat historisch sehr wichtige Maschine", sagte Horst Zuse bei der offiziellen Übergabe im ZKM. "Das ist die Maschine, die in den deutschen Hochschulen die EDV eingeführt hat." Sein Vater hatte den ersten funktionstüchtigen Rechner entwickelt, der sich auf binäre Gleitkommarechnung verstand. Diese Maschine -- Z3 genannt -- vollendete er 1941 in einer kleinen Werkstatt in Berlin-Kreuzberg. 1949 gründete Konrad Zuse zusammen mit zwei Partnern im hessischen Neukirchen dann die Zuse KG, die erste Computerfirma Deutschlands.

Die Baureihe der Computeranlage Z22 wurde ab 1957 gebaut und insgesamt fünzigmal ins Inland sowie fünfmal ins Ausland ausgeliefert. Die mit mehr als 400 Elektronenröhren ausgestattete Anlage war eine der ersten, mit der Aufgaben in der neuen Programmiersprache ALGOL60 gelöst werden konnten. Sie wurde in der Mathematik, Betriebswirtschaft, Bautechnik, Elektrotechnik, Ballistik, Aerodynamik, Optik, Vermessungstechnik, im Maschinen- und Kernreaktorbau sowie in der Ausbildung eingesetzt. Die Z22 mit der Seriennummer 13 wurde bis Ende 1971 an der Ingenieurschule in Karlsruhe für die Ausbildung im Programmieren eingesetzt und ist heute als Kulturdenkmal von besonderer Bedeutung in das Denkmalbuch eingetragen.

Quelle : www.heise.de (http://www.heise.de)
Titel: Erfinder des Computers: Vor zehn Jahren starb Konrad Zuse
Beitrag von: SiLæncer am 18 Dezember, 2005, 15:28
Das Internet war noch ein zartes Pflänzchen, als Konrad Zuse heute vor zehn Jahren starb. Ohne seine Erfindung, den ersten programmierbaren digitalen Rechner, wären moderne Computer undenkbar.

Den Siegeszug, den die Informationstechnik in den vergangenen Jahren nahm, erlebte Konrad Zuse nur noch ansatzweise. Dass mittlerweile in Autos, digitalen Videorecordern und Telefonen leistungsfähige Computerchips stecken, hätte sich der Ingenieur aus Berlin wohl kaum träumen lassen, als er 1941 den ersten funktionierenden Digitalrechner baute.

Der Z3 - Zuse benannte seine Rechner fortlaufend - war der erste funktionsfähige, programmierbare Rechner mit binären Gleitkommazahlen und Boolescher Logik. Im Z3 steckte die grundlegende Technik heutiger Prozessoren.

"Er hatte eine Vision: Er wollte ein Maschine, die kein anderer hat", erinnert sich Horst Zuse, der Sohn des Erfinders. Der Vater Konrad wurde 1910 geboren und studierte zunächst in Berlin Maschinenbau und Architektur, später dann Bauingenieurwesen.

Bereits während seines Studiums habe sein Vater die Idee einer Rechenmaschine entwickelt, sagte Zuse Junior der Nachrichtenagentur dpa. Es sei ihm darum gegangen, Ingenieure von der monotonen und mühseligen Arbeit des Rechnens zu befreien.

1938 entstand Z1, zwei Jahre später Z2 - ein Rechner, der mit Telefonrelais arbeitete. 1941 folgte dann Z3. Zuse entwickelte noch während des Kriegs Z4. Kontakte zu Computerpionieren in den USA und Großbritannien hatte er wegen des Kriegs keine.

1949 gründete der Ingenieur in Hessen die Zuse KG, um Computer industriell zu bauen. Das Unternehmen beschäftigte zeitweilig über 1000 Mitarbeiter. Der erste Serienrechner der Welt, der Z22, war ein Produkt der Zuse KG.

Zuse war nicht nur Erfinder des Computers, von ihm stammt auch die erste universelle Programmiersprache "Plankalkül". Sein wissenschaftliches Erbe verwaltet die Konrad-Zuse-Gesellschaft. Der Chaos Computer Club wollte Zuse sogar zum Ehrenmitglied ernennen, doch der Ingenieur starb vor dem Chaos Communication Congress 1995.

Quelle und Links : http://www.spiegel.de/netzwelt/technologie/0,1518,390819,00.html (http://www.spiegel.de/netzwelt/technologie/0,1518,390819,00.html)
Titel: Erstes PC-Virus feiert 20. Geburtstag
Beitrag von: Warpi am 21 Januar, 2006, 19:40
"Brain" wurde 1986 entdeckt

Delaware/ Helsinki (pte) - Vor 20 Jahren ist der erste PC-Virus aufgetaucht. "Brain", so sein Name, konnte nur durch Floppy-Disks von PC zu PC übertragen werden. Obwohl Brain nicht sehr weit verbreitet war, wurde das Virus bekannt als erstes seiner Art. 20 Jahre nachdem Brain in Umlauf gebracht wurde, wird die weltweite Anzahl an schädlichen Programmen auf über 150.000 geschätzt.

Der Ursprung von Brain ist bisher unklar. Es wird vermutet, dass das Virus von einer pakistanischen Softwarefirma hergestellt und verbreitet wurde, um die eigenen Programme zu sichern. Entdeckt wurde Brain erstmals im Januar 1986, da sich das Virus aber relativ langsam verbreitet wurde es vermutlich schon einige Zeit davor in Umlauf gebracht. Die Computerexperten der US-Universität Delaware haben zunächst einige schadhafte Disketten entdeckt. Bei genaueren Untersuchungen wurde Brain identifiziert. Im Vergleich zu "moderne" Viren war Brain harmlos: infizierte Disketten werden so langsam, dass sie kaum noch zu lesen sind.

Brain ist ein Bootsektor-Virus, benannt nach dem Bootsektor einer Diskette, in dem sich das Virus versteckt. Die Programmierer stellen so sicher, dass das Virus aktiv wird, schon während ein Computer hochgefahren wird. Bis Mitte der 90er waren Bootviren die meistverbreitete Form schädlicher Software. Brain wurde zwar als erstes PC-Virus bekannt, doch schon 1982 ist ein schädliches Programm aufgetaucht. Richard Skrenta hat das "Elk Cloner" Virus programmiert, das Apple II-Rechner infiziert hat.

Seit dem ersten Auftauchen von Brain hat sich die Anzahl schädlicher Software massiv gesteigert. "Die größte Veränderung bei Computerviren ist, dass sie nicht mehr von Einzelnen als Hobby hergestellt werden, sondern dass dahinter kriminelle Gruppierungen mit finanziellen Interessen stecken", sagt Mikko Hypponen von dem finnischen Sicherheitssoftware-Unternehmen F-Secure. Laut FBI wurden 84 Prozent aller US-Unternehmen im vergangenen Jahr Opfer von Computerviren, Spyware oder anderer PC-Angriffe. Durchschnittlich kostet einem US-Unternehmen die Sicherheit der Computersysteme 24.000 Dollar pro Jahr, so die Statistik des FBI, die vergangene Woche veröffentlicht wurde.

Quelle: www.yahoo.de

Ps: Das waren noch Zeiten , mit Sony Hit Bit , Apple 2 u.s.w.
Kennt die 8 Bit - Kisten noch einer ? :o
Titel: 25 JAHRE IBM- PC - Als die Dose unser Leben veränderte
Beitrag von: SiLæncer am 09 August, 2006, 17:07
Braucht der ganz normale Mensch einen persönlichen Computer? Vor drei Jahrzehnten schien die Antwort klar: Natürlich nicht! Wozu auch? Dann kamen Jobs und Wozniak, Commodore und Atari, vor allem aber Gates und IBM - und unser aller Alltag begann sich von Grund auf zu verändern.

Mitte der achtziger Jahre irrlichterte ein Thema durch die journalistische Branchenpresse, heiß diskutiert von Gewerkschaftern wie Akademikern: Wie würde der drohende Einzug von Computertechnik das eigene Berufsbild verändern? Praktiker wie Theoretiker befürchteten Schlimmstes. Würden aus Redakteuren nun Redaktroniker? Sekretärinnen arbeitslos? Altgediente Profi-Schreiber als Informatik-Legastheniker aufs Abstellgleis entsorgt?

Präventiv wurden Ende des Jahrzehnts schon einmal die Ausbildungspläne aufgebohrt für die neuen Informatiker-Informationsbeschaffer. Nichts, menetekelten die Weitsichtigen, teils visionierend, teils halluzinierend, bleibe so, wie es einmal war.

Zum Glück hatten sie Recht - nur gingen die Veränderungen unserer Lebens- und Arbeitswelt viel weiter, als sich das vor 20 Jahren irgendjemand hätte vorstellen können. Und das natürlich nicht nur in der Medien- und Kommunikationsbranche, sondern überall. In Rückschau spricht man heute gar von einer Zeitenwende. Der Beginn der massenhaften Verbreitung von Rechnern markiert den endgültigen Übergang von der Industrie- zur Informationsgesellschaft.

Vergleichen Sie: Ihr Leben 1980 und heute

Man muss sich so etwas selbst einmal klar machen: Wir sind eine Generation, die eine Veränderung der Lebenswelt durch Einführung einer neuen Technik erlebt hat, wie es sie seit Erfindung des Automobils nicht mehr gegeben hatte. Im Vergleich zur Durchdringung des Alltags mit Digitaltechnik war selbst der Einzug des Fernsehens fast eine Bagatelle.

Angefangen hatte das alles Mitte der siebziger Jahre. Jahrzehntelang waren Computer klobige, meist als bedrohlich empfundene, schwer zu begreifende Kisten gewesen, mit denen nur wenige Menschen praktische Erfahrungen hatten. Im Film waren es zumeist wahnsinnige Wissenschaftler, die seelenlose Computertechnik zum Schaden der Menschheit missbrauchten. Im Arbeitsleben befürchtete man vor allem Rationalisierungen - also Jobverluste - durch die digitale Technik. In seinem Kultfilm "2001" trieb Stanley Kubrick solche Ängste auf die Spitze: Hier rationalisierte der durchgeknallte Superrechner HAL den größten Teil des menschlichen Personals gleich per Mord weg.

Mit dem Titel "Computer sind doof" traf die Band Spliff 1982 darum durchaus noch den Zeitgeist: Eingesetzt wurden die Dinger schließlich für alles, was irgendwie bedrohlich schien. Im Spliff-Song kommt es am Ende natürlich zur atomaren Weltvernichtung mit Rechnerhilfe.

Doch das Umdenken hatte bereits begonnen

Mitte der Siebziger entwickelten Steve Jobs und Steve Wozniak den Apple I und damit das Konzept eines "persönlichen" Computers. Die etablierte IT-Industrie - und hier namentlich IBM, das zu dieser Zeit über eine marktbeherrschende Stellung verfügte - lachte zunächst über die "Spielzeuge": Ihre Mainframe-Rechner leisteten schließlich echte Arbeit. Die kleinen Rechenknechte konnten da natürlich nicht mithalten.

Dafür ließen sie sich aber anders nutzen: zum Spielen zum Beispiel.

1972 hatte Atari das primitive Tennisspiel Pong veröffentlicht, einige Zeit vorher war mit dem Magnavox Odyssey das erste Telespiel für zu Hause auf den Markt gekommen. Mit einem Mal erschien der Gedanke, so etwas wie einen Computer im Haus zu haben, gar nicht mehr so unsinnig. Zumal sich mit den Dingern ja nicht nur Spielen ließ, sondern auch Briefe schreiben oder Wurzeln ziehen (was für ein Argument bei den Verhandlungen mit den Eltern!). Vier Jahre nach Veröffentlichung des Apple I konkurrierten bereits eine ganze Reihe von Bausatz-Rechnern um den entstehenden Markt - und jetzt wachte auch der Branchenriese IBM auf.

Der hatte die nötigen Einzelteile zur Konstruktion eines "PC" durchaus im Regal, bisher daran aber kein Interesse gezeigt. Mitte 1980 änderte sich das: Die Entwicklungsabteilung bekam den dringenden Auftrag, schnellstmöglich ein verkäufliches Modell zu kreieren. Der Prototyp stand nach wenigen Monaten. Die Arbeit, selbst ein Betriebssystem zu entwickeln, machte sich IBM gar nicht: Microsofts DOS zu lizenzieren schien der bequemere Weg. Schon Ende 1981 stand darum der fertige IBM 5150 in den Läden.

IBM hatte damit, ohne es zu ahnen, selbst den Niedergang seines Geschäfts mit Großrechnern eingeleitet. Weil das Unternehmen es anderen Firmen in einem Versuch, einen "Industrie-Standard" zu etablieren, erlaubte, die grundlegende Architektur des 5150 zu kopieren, verbreitete sich der "IBM-PC" im Doppel mit MS-DOS wie ein Lauffeuer - und verdrängte immer mehr Mainframe-Workstations aus den Büros. Seitdem werden die Rechner halb liebevoll, halb gehässig Dosen genannt.

Als IBM den Verkauf des 5150 sechs Jahre später einstellte, hatte die Firma zwar mehrere Hunderttausend davon abgesetzt und einen Industriestandard etabliert, der im Wesentlichen bis heute Bestand hat, dabei aber Microsoft groß und sich selbst kleiner gemacht - und dem PC in Berufs- wie Privatleben zum Durchbruch verholfen.

Weniger schillernd und populär als seine Konkurrenten C 64, Atari oder Amiga, aber erfolgreicher, weil er von Anfang an eben auch Arbeitstier für den Einsatz im Büro war; Apples 1984 veröffentlichtem Macintosh unterlegen, aber erfolgreicher, weil IBM im Gegensatz zu Apple das technische Konzept freigiebig lizenzierte, bleibt der 5150 so etwas wie Fords Modell T unter den Rechnern: nicht der erste seiner Art, aber das Modell, das die Massenverbreitung einleitete.

IBM feiert am 12. August den 25. Jahrestag des Verkaufsbeginns des 5150 und sieht darin den Beginn der PC-Ära. Darüber kann man streiten - Appleaner kommen da auf 30 Jahre - nicht aber darüber, dass der 5150 den Beginn der IBM-PC-Ära und damit eine Zeitenwende markiert. War es vorher ein relativ kleiner Kreis informierter Computer-Insider, die mit Digitaltechnik experimentierten, waren es am IBM-PC schon bald Millionen. 25 Jahre später ist der "IBM-PC" fraglos ein integraler Bestandteil unseres Lebens.

Quelle : www.spiegel.de
Titel: Re: 25 JAHRE IBM- PC - Als die Dose unser Leben veränderte
Beitrag von: Dragonix am 09 August, 2006, 17:17
Auch wenn es laaaaaaaaaaange vor meiner Zeit war:

ALLES GUTE!!!
Titel: 25 Jahre PC: "Wie geht es Deinem Weltall?"
Beitrag von: SiLæncer am 11 August, 2006, 15:48
"Ja", schreibt SPIEGEL-ONLINE-Leser Michael Neumann, "die DOSe hat mein Leben ein wenig beeinflusst." Das ist eine krasse Untertreibung. Neumann hat etwas zu erzählen: die Geschichte der allmählichen Digitalisierung des Lebens. Ein Leserbeitrag zur Reihe "25 Jahre PC".

1959 bis 1966
Wahrscheinlich gibt es Computer und wahrscheinlich nehmen sie Einfluss auf mein Leben - ich merke es aber noch nicht.

1966 und folgende
Das Wort Computer fällt immer mal wieder - ich habe ein Auto von Matchbox, das eigentlich Comuter heißt; ich nenne es wegen eines Lesefehlers aber immer meinen Computer.

1970 und folgende
Computer sind groß, bedrohlich und meist von IBM. Das suggerieren mir die Werbung, Science-Fiction-Filme und das Börsenspiel.

1980 bis 1985
Alles, was mit Computern zu tun hat, wird als EDV bezeichnet. Mein Arbeitgeber arbeitet mit Lochkarten und ein Cousin hat einen Taschenrechner von Texas Instruments, der programmierbar ist. Sogar ein "Spiel" ist vorhanden. Man muss eine Mondfähre durch Eingabe von Daten "steuern" - zu viel Schub und sie geht nicht runter, zu wenig Schub und sie stürzt ab; spannende Angelegenheit - nach drei Versuchen aber zu langweilig.

Interessanter sind da schon die aufkommenden Spiele in Spielhallen und Gaststätten.

1986
Bei einem Besuch zeigt mir mein Cousin, der mittlerweile Physik studiert, die Computer an seiner Uni, die in einem Netzwerk miteinander verbunden sind - wozu braucht man denn so etwas? - und über eine Gesamtspeicherkapazität von 10 Megabyte verfügen. Eine gigantische Summe.

1987
Ich verliere die Nerven, gehe los und kaufe einen C64 mit Erweiterung auf 128 kb. Als erstes Projekt wird die Plattensammlung archiviert.

Abgespeichert auf Datasette ist das Wiederfinden bei der Aufteilung in A-D, E-H usw. so zeitraubend, dass der Blick in den Plattenschrank dann doch noch einfacher ist. Programme jeder Art sind teuer und deshalb werden Fachzeitschriften gekauft und Programme abgeschrieben - seitenweise. Beim Abtippen von Basic-Programmen lerne ich viel über deren Logik.

Aus monetären Gründen schiebe ich den Kauf eines sogenannten Floppy-Laufwerks und eines Nadeldruckers immer wieder heraus. Irgendwann wird das selbst abgeschriebene Spiel "Kniffel am C64" langweilig. Ein Spiel, das mit sogenannten Windows arbeitet, und in dem man sich von Level zu Level durcharbeiten muss, ist zwar sehr unterhaltsam, hängt sich aber immer wieder an derselben Stelle auf - das soll ein Bug sein. Der Fehler lässt sich nicht beheben - das Spiel gerät in Vergessenheit.

1988/89
Ich erhalte dienstlichen Zugang zu einem IBM-PC, mit dem die Auswertung eines Großprojekts begleitet werden soll. Ein Abiturient/Praktikant ist so pfiffig, dass er unter Zuhilfenahme der Software "f&a" (Frage und Antwort) und mit einigen eigenen Ideen und Programmierkenntnissen nach kurzer Zeit eine komplexe Auswertung zu technischen Materialzuständen sowie Leistungen der Mitarbeiter und der von ihnen bedienten Systemen liefern kann. Ich finde erstmalig den Einstieg in MS-DOS, kann die Floppy nutzen und Texte und einfache Grafiken formatieren und drucken.

1990-97
Da mir ein sogenannter IBM-kompatibler PC zu teuer ist, kaufe ich mir eine Schreibmaschine von Olivetti, mit Disketten-Laufwerk, 12-Zeilen-Display sowie integrierter Textverarbeitung (links-/rechtsbündig, Blocksatz und Rechtschreibprüfung) und Tabellenkalkulation. Mit verschiedenen austauschbaren Schrifttypen auf Rädern, Korrekturtaste und einem Austausch der Daten zu PCs (über ASCII) habe ich für lange Zeit alles, was ich für den Schriftverkehr im täglichen Dienst und für den privaten Bereich benötige.

Allen, die mich auf meine (vielbewunderte und immerhin 800 Mark teure) Schreibmaschine ansprechen und fragen, warum ich denn keinen PC habe, sage ich, dass doch ohnehin fast jeder seinen PC zur Schreibmaschine degeneriert - warum dann nicht gleich eine Schreibmaschine nutzen? Außerdem bin ich mit ihr mobil, weil sie schnell zusammengepackt ist. Irgendwo schaue ich aber immer mit Neid auf die PC-Besitzer, die mich mit Ihren Kenntnissen über Windows 3.11 und dann Windows 95 langsam abhängen. Ich fürchte, ich verpasse den Sprung in die Informationsgesellschaft.

1998
Ich verliere erneut die Nerven, gehe zu einer Niederlassung von Vobis, weil die anderen Elektronik-Discounter noch im Kerngeschäft Unterhaltungselektronik vertreiben. Außerdem habe ich einfach keine Zeit, mich irgendwann in der Nacht für einen ALDI-PC anzustellen. Um 2600 Mark erleichtert verlasse ich den Laden mit einem High-End-PC, der Windows 98 und die Small-Business-Edition von MS-Office aufgespielt hat, über eine 4,5 GB-Festplatte, ein CD-ROM-Laufwerk und einen CD-Brenner verfügt. Als Peripheriegeräte sind noch ein Flachbettscanner, ein Farbdrucker, ein 19 Zoll-Monitor und ein 56k-Modem im Kofferraum.

"Damit haben Sie für viele Jahre ausgesorgt", klingt es mir noch lange im Ohr. Freund und Feind gleichermaßen bewundern mein Equipment über ein gutes halbes Jahr lang, dann erscheint alles etwas angestaubt.

Im Moment aber bin ich der König. Ich kann CDs brennen und entdecke den Schmerz, wenn sich der Brennvorgang mit einem Buffer-Underrun verabschiedet - CD-Rohlinge kosten damals noch deutlich mehr. Ich werde ungehalten, wenn ein Stockwerk tiefer jemand den Telefonhörer mitten in der Internetsitzung abhebt und genieße es, wenn meine Schaffenskraft in Sachen persönlich gestalteter Einladungs- und Grußkarten bewundert wird.

1999
In der Freizeit sitze ich nur noch in meinem Arbeitszimmer unter dem Dach am PC - es gibt soviel zu entdecken, zu machen und zu probieren. Dass ich die Nutzung längst übertreibe, geht in meiner Begeisterung für die Informationsgewinnung, -verbreitung und -verarbeitung und meiner grenzenlosen Freude über einen neuen potenten PC, den ich an einem neuen Arbeitsplatz vorfinde, unter. Längst bin ich zum Internet- und Computer-Junkie geworden, der für jedes Problem die Lösung über den PC und das Internet sucht und auch findet.

2000
Die Ehe ist zu Bruch gegangen - meine Computer- und Internetleidenschaft hat sicherlich erheblich dazu beigetragen. Ich lerne eine Frau kennen - natürlich in einem Chatroom - die meine Begeisterung für die neuen Medien teilt. Ich finde den Zugang zu eBay und bin fassungslos, welche Dimensionen die Globalisierung hat - auch für mich. Für einen Bekannten verkaufe ich einen Dachbodenfund Blechspielzeug über virtuelle Auktionshäuser in die ganze Welt, die nur noch ein Dorf ist.

2001
Ich bin im Dienst zum gefragten Gesprächspartner der Netzwerkadministratoren geworden, baue meinen PC selber auf den neusten Leistungsstand aus, erwerbe die Teile dafür im Internet, verkaufe die Altteile fast zu Neupreis und stecke Jumper an Festplatten um, als hätte ich noch nie etwas anderes getan.

2002
Wir - die Internet-Bekanntschaft und ich - haben geheiratet und verfügen in unserem Arbeitszimmer über drei Rechner. Jeder hat seinen eigenen PC und den Internetzugang über ISDN. Ich habe noch einen Linux-Rechner, um auch hier mitreden zu können. Die drei PCs sind natürlich über einen Hub vernetzt und der Internetzugang erfolgt über einen Router. Hinzu kommt ein Notebook, mit dem der Zugang ins WWW immer und überall gewährleistet ist und mit dem im Sommer die tagsüber geschossenen Urlaubsbilder abends überarbeitet werden können.

2003
Wir kaufen ein neues Haus. Der PC begleitet das gesamte Projekt: vom Suchen und finden, der Prüfung aller Umstände, bis hin zur detaillierten Küchenplanung. Das Notebook pendelt mit allen Informationen zwischen Arbeitsplatz, Wohnung alt und Wohnung neu.

2004
Wir wohnen im neuen Haus. Das Netzwerk und der DSL-Zugang zum Internet erfolgen zunächst provisorisch - irgendwann können wir die Kabel nicht mehr sehen. Dem Himmel sei Dank, dass ich ein gutes Angebot für eine WLAN-Box und vier Sende-/Empfangseinheiten aufspüren kann - natürlich im Internet.

Ab sofort keine Kabel mehr und ich sitze wie Michael B. im Liegestuhl im Garten und surfe.

2005
Ich habe über SPIEGEL ONLINE, die Seite, die seit Jahren meine Hauptquelle für Informationen ist, einen Artikel über Browsergames gelesen - ab sofort spiele ich Spacepioneers und schon nach kurzer Zeit gilt für mich, was für alle SP-Zocker gilt: Jeder normale Mann denkt alle 30 Sekunden an Sex - jeder Spacepioneers-Spieler denkt alle 5 Sekunden an seine Flotte.

2006
Im Browsergame habe ich mich 2900 Plätze vorgearbeitet. Meine Frau fragt manchmal, was mein Weltraum macht. Größere Einkäufe werden zu 99,9% über das Internet getätigt. Wir haben zusammen weit über 1000 positive Bewertungen (100% positiv) bei eBay. Unsere Ferienwohnung vermitteln wir über die selbst erstellte und gepflegte Homepage, genau so, wie die Präsentation der Hundezucht meiner Frau. Das Navigationsgerät ist als Pocket-PC gleichzeitig der Notebookersatz bei Besprechungen. Telefoniert wird über das Internet. Das Handy kann alles. Steuern und jeder Schriftverkehr wird elektronisch erledigt und am Arbeitsplatz ist der PC zu über 80% mein Handwerkszeug.

Ja, die DOSe hat mein Leben ein wenig beeinflusst.

Quelle : www.spiegel.de
Titel: 12.08.1981 – Der erste Personal Computer von IBM kommt auf den Markt.
Beitrag von: Warpi am 12 August, 2006, 08:49
http://de.wikipedia.org/wiki/Personal_Computer#IBM-PC (http://de.wikipedia.org/wiki/Personal_Computer#IBM-PC) ;)
Titel: Die Maschine lieben - Die Ausstellung "Enter!"
Beitrag von: SiLæncer am 15 Oktober, 2006, 11:20
Über die Ausstellung "Enter!" im Tübinger Stadtmuseum

Es ist nur ein einziger Saal, und er ist nicht einmal allzu groß. Aber das Tübinger Stadtmuseum zeigt derzeit, wie man am richtigen Ort mit den richtigen Exponaten eine spannende Ausstellung zur Computergeschichte machen kann, auch wenn Platz und Mittel beschränkt sind.

Tübingen? Wieso Tübingen? Die verschlafene kleine Universitätsstadt in Schwaben mag eine Menge Vorzüge aufweisen und von Gelehrsamkeit nur so bersten, aber mit der Datenverarbeitung und ihrer Geschichte bringt man Tübingen allgemein nicht in Verbindung. Warum hier? Darum: Es hat doch einmal ein Computerpionier hier gelebt und gebastelt, allerdings ein sehr früher. Wilhelm Schickard baute in Tübingen um 1620 die erste Rechenmaschine der Welt.

Der ganze Artikel (http://www.heise.de/tp//r4/artikel/23/23751/1.html)

Quelle : www.heise.de
Titel: 25 Jahre Sun Microsystems: Der Computer ist das Handbuch
Beitrag von: SiLæncer am 24 Februar, 2007, 21:21
Am heutigen Samstag feiert Sun Microsystems offiziell seinen 25. Geburtstag. Nach einem Brief des deutschen Firmenmitgründers Andreas von Bechtolsheim wurde die Firma erst am 16. Mai 1982 eingetragen, doch der 24. Februar erscheint als ein passenderes Datum: An diesem Tag stellte Sun Microsystems ausweislich der eigenen Zeitschiene (PDF-Datei) den Prototypen der ersten Workstation vor, mithin das Konzept, mit dem Sun zu einem sehr erfolgreichen Computerbauer wurde.

Dabei war das Konzept, eine leistungsfähige billige Workstation mit Standardkomponenten für die Forschung zu entwerfen, nicht einmal neu. Andreas von Bechtolsheim hatte im Auftrag eines Informatikprofessors Pläne für eine kostengünstigen CAD-Rechner entwickelt und diese Pläne an sieben oder acht Firmen lizenziert. "Das Problem war: Die Firmen wollten keine Workstations bauen. 1982 war das Jahr, in dem am Ende der Computer zum Man of the Year erklärt wurde. Alle dachten dabei an billige Personalcomputer. All diese Firmen hätten Sun werden können. Heute gibt es sie nicht mehr", erklärte Bechtolsheim in einem Fernseh-Interview mit dem Journalisten Stephen Segaller.

Zusammen mit den ebenfalls 26 Jahre alten Vinod Koshla, Scott McNealy und dem Programmier Bill Joy gründete Bechtolsheim Sun Microsystems. Das Kürzel Sun ist ein Tribut an das Stanford University Network, ohne das es die Idee vom leistungsfähigen vernetzten Computer nicht so einfach gehabt hätte: "Sun Microsystems war das Produkt des finanziell armen, doch an Arbeitskraft überreichen Universitäts-Biotops, in dem Unix blühte und gedieh", erklärte der Computerhistoriker Martin Campbell-Kelly.

In einer Talkshow zur Gründung (Zusammenfassung als PDF-Datei) von Sun Microsystems erklären die Gründer die günstige Konstellation, unter der Sun starten konnte. Geld war da, weil Venture-Kapitalisten etwas gaben, ohne einen blassen Schimmer davon zu haben, was denn eine Workstation sein soll. Und talentierte Programmierer und Hardware-Entwickler gab es im Überfluss. Selbst das Marketing funktionierte bei den Geeks. Bill Joy, der damalige Chefentwickler von BSD-Unix, brachte John Cage mit, der den berühmten Sun-Slogan erfand: "The network is the computer, the computer is the manual." Heute wird gern der zweite Teil des Satzes weggelassen: das Versprechen auf einen Computer, der ohne Handbuchstudium bedient werden kann.

Der erste Computer namens Sun-1 in einer langen Modellreihe basierte auf dem billigen Motorola-Prozessor 68000 und hieß ursprünglich "68000 Unix System". Erst nach vier Modellen führte die Firma ihre eigenen SPARC-Prozessoren ein, mit denen das Workstation-Geschäft noch lukrativer wurde. Ebenso wichtig waren jedoch die Arbeiten am Betriebssystem SunOS, einer BSD-Unix-Variante. NFS, das Network File System, brachte die anvisierte einfache Vernetzung. Und mit Java gab es dann von Sun auch die Grundlage für die einfache Entwicklung von vernetzten Anwendungen in heterogenen Umgebungen.

Zunächst war Sun ein reiner Workstation-Lieferant, geriet mit dieser Strategie aber ins Straucheln, als die belächelten PCs immer leistungsfähiger und billiger wurden. Der vor 10 Jahren gestartete Versuch, in dem sich abzeichnenden Internet-Boom mit einer JavaStation den PC auszumanövrieren, scheiterte spektakulär. Das Ökosystem mit Internet-Anwendungen, wie sie unter anderem Google heute bietet, war noch nicht vorhanden. Auch der vom langjährigen Sun-Chef Scott McNealy mit Leidenschaft verfolgte Konfrontationskurs zu Microsoft, in dem unter anderem die deutsche Softwarefirma Star Division übernommen wurde, war für Sun nicht sonderlich erfolgreich. Immerhin aber hat StarOffice und das Pendant OpenOffice, für das Sun den StarOffice-Quellcode als Open Source freigab, durch den Coup eine solide Basis gefunden.

Die Perspektive von Sun Microsystem besserte sich Ende der 90er Jahre, als es der Firma gelang, sich als Server-Hersteller neu zu positionieren. Einige Rückschläge folgten noch – so wurde Sun zwar zum Lieferant der Server, die das stark expandierende Internet und Web während der Hochzeit der New Economy antrieben, litt dann aber auch besonders, als all die schicken Firmen der Internet-Ökonomie pleite gingen und keine Sun-Maschinen mehr kaufen konnten. Mittlerweile blickt Sun wieder optimistischer in die Zukunft – die ersten schwarzen Zahlen seit einiger Zeit geben Anlass, ehrgeizige Ziele zu formulieren; nach AMD ist nun auch Intel als weiterer Prozessorlieferant im Boot, strategische Entscheidungen wie die Freigabe von Java als Open Source sollen die Basis für Sun weiter verbreitern. Heute ist Sun nach den neuesten Zahlen die Nummer drei unter den Server-Lieferanten. Wenn das Netzwerk der Computer ist, muss man eben Computer für das Netzwerk bauen.

Quelle : www.heise.de
Titel: 25 JAHRE COMPUTERVIREN: Der Apfel- Fresser
Beitrag von: SiLæncer am 13 Juli, 2007, 19:10
Sein Name war Elk Cloner, und er war der erste seiner Art. Vor 25 Jahren setzte ein 15-Jähriger ein Computervirus in die Welt. Das Programm pflanzte sich über Disketten fort, zeigte ein Gedicht, ließ ansonsten aber die befallenen Apple-Rechner unversehrt. Längst bereut der Autor seine Tat.

"Hey, hast du neue Spiele?" Den Satz hörte Richard Skrenta jede Woche, damals im Computerraum seiner Highschool in Pittsburgh. Der 15-Jährige war beliebt und bekannt dafür, immer wieder unterhaltsame Programme zu schreiben. Und diese nervigen Fragen brachten ihn auf eine Idee: Warum nicht ein kleines, verstecktes Programm schreiben, dass sich unerkannt über die kopierten Disketten verbreitet und Computerbesitzer plötzlich erschreckt? Das hat Skrenta 1982 getan. Sein kleiner Spaß wurde zum ersten Virus der Computergeschichte.

Heute muss sich Skrenta eine andere, nervige Frage anhören. Immer wieder, seit 25 Jahren: "Bist du der Typ, der den ersten Virus geschrieben hat?" Ja. Ein Artikel in der heutigen Ausgabe des Wissenschaftsmagazins "Science" feiert Skrenta wieder einmal als Schöpfer des ersten Virus, das in die freie Wildbahn, also auf die Rechner ahnungsloser Computerbesitzer geriet.

Richard Skrenta hat diesen Teenager-Scherz inzwischen auf seiner Webseite im Lebenslauf vermerkt. Mit dem leicht genervten Zusatz in Klammern: "Da war ich in der neunten Klasse!" Denn Skrenta ist inzwischen 40, ein gestandener Programmierer. Er hat schon für Sun, Netscape und AOL gearbeitet. Er hat das Unternehmen Topix gegründet - ein Nachrichtenportal für Lokales, das vor zwei Jahren von US-Zeitungsriesen aufgekauft wurde. Skrenta ist dort heute Geschäftsführer.

Aber berühmt ist Skrenta noch immer als Virus-Autor. Als ihn 1990 wieder einmal jemand in einer Programmierer-Newsgroup gefragt hat: "Also bist du der ELK CLONER????", antwortete Skrenta: "Unglaublich. Ich habe so viel Zeug für den Apple II programmiert - Adventure-Spiele, Compiler, ein Betriebsystem. Und der dümmste Hack, den ich je geschrieben habe, hat am meisten Interesse erzeugt, bis heute."

Infiziert hat Cloner nur Apple-II-Rechner

Rein technisch gesehen war der erste Computer-Virus aber ziemlich clever. Dumm war es vielleicht, ihn einfach so auf die Menschheit loszulassen. Die Apple-II-Rechner waren damals die beliebtesten Computersysteme. Sie standen in Skrentas Schule, bei manchen seiner Lehrer und bei einigen seiner Freunde. Und weil diese Freunde Skrenta immer wieder nach neuen Spielen löcherten, seine Disketten kopierten, kam er auf die Idee, sie mit einer kleinen, lästigen Botschaft zu überraschen.

Damals wurden Programme auf Floppy-Disketten in Computer eingelegt und von dort aus ausgeführt. Skrenta schrieb nun eine Huckepack-Software, die sich auf Disketten versteckte und sich in den Bootsektor jedes Computers kopierte, in dem die Diskette steckte. Von dort aus infizierte der Virus dann alle weiteren eingelegten Disketten - bis der Computer wieder ausgeschaltet wurde. So pflanzte sich der Virus fort.

Clevere Programmierung, dämliche Lyrik

Die Betroffenen merkten erst gar nicht, dass ihre Rechner infiziert waren. Das Virus zählte aber mit, wie oft seine Diskette in einen Rechner gesteckt wurde. Bei jeder fünfzigsten Programm-Ausführung ließ das Virus den Bildschirm dunkel werden. Dann tauchte Skrentas absurdes Gedicht auf:

Elk Cloner: The program with a personality / Elk Cloner: Das Programm mit Persönlichkeit

It will get on all your disks / Es wird all deine Disketten infizieren

It will infiltrate your chips / Und deine Chip kontaminieren

Yes it's Cloner! / Ja, es ist Cloner!

It will stick to you like glue / Es bleibt an Dir hängen wie Kleber

It will modify ram too / Und geht auch dem Arbeitsspeicher ans Leder

Send in the Cloner! / Hier kommt der Cloner!


Sonst richtet Cloner keine Schäden an. Einmal den Rechner aus- und wieder einschalten und schon lief das Programm normal wie vor dem kleinen Einbruch des Cloner-Wahnsinns. Dieses Virus löschte nicht, schnüffelte nicht, verriet nicht die Geheimnisse des Computer-Besitzers an andere. Cloner nervte einfach.

Der Virus klebt an Skrenta

Skrenta erinnert sich auf seiner Webseite, wie sein damaliger Mathematik-Lehrer reagierte, als Cloner ihm einen Schrecken eingejagt hatte: "Er sagte, er hätte mir das Genick gebrochen, wenn ich dort gewesen wäre, als das Gedicht erschien." Nur: Wie kam das Programm auf den Rechner des Lehrers? Er muss sich wohl von einem der Schüler Software kopiert haben. Skrenta erinnert sich auf seiner Seite an die andere Reaktionen der Betroffenen: "Einige Freunde fanden das lustig. Die meisten hassten es."

Aber die Medien liebten Skrenta: Mit seinem Virus brachte er es bis 1985 nicht nur in einige Regionalzeitungen, sondern auch ins Magazin "Time" und den "Scientific American". Dort lobte sogar der Programmierer Bob Hablutzel die Leistung des 15-jährigen Skrenta: "Er hat ein ernst zunehmendes Programmierer-Talent." Allerdings sei der Junge "fehlgeleitet".

Das Gegenteil hat Skrenta in den 25 Jahren nach seinem ersten und letzten Virus wohl bewiesen. In seinem Blog schreibt er: "Viren sind heute viel zu verbreitet. Man kriegt den Geist nicht in die Flasche zurück. Der einzige Trost, den ich finde ist der, dass der Geist ohnehin rausgekommen wäre. Aber es ist ein großer Spaß, der erste zu sein, der ihn rausgelassen hat."

Quelle : www.spiegel.de
Titel: 100 Jahre Computer - der Z3 wird nachgebaut
Beitrag von: SiLæncer am 08 April, 2009, 12:53
Von Fans der Computertechnologie liebevoll "Vater" genannt, soll nun der Rechner pünktlich zum 100. Geburtstag nach Originalplänen nachgebaut werden.

In München im Technikmuseum steht schon einer: ein Z3. Konrad Zuse, der Computer-Erfinder soll mit einem weiteren Nachbau seiner "Rechenmaschine" posthum gewürdigt werden. Der Sohn des Technik-Pioniers, Horst Zuse, und der Bürgermeister von Hünfeld, Eberhard Fennel, vereinbarten einen detaillgetreuen Nachbau. Die Stadt in Hessen in der der Erfinder 1995 starb, bemüht sich darum, den Nachbau des Z3 für das dort ansässige Konrad-Zuse-Museum zu konstruieren. Anschließend soll er auf Tour gehen und auch in Berlin und anderen Städten zu sehen sein.

(http://www.gulli.com/img/deutsches_museum_zuse_drei.jpg)

Schon 1941 baute Zuse den ersten Digitalrechner. Zuse, der seine Rechner durchnummerierte (Z1, Z2,Z3...), gelang es mit dem Z3 einen funktionsfähigen, programmierbaren Rechner mit binären Gleitkommazahlen und Boolescher Logik zu konstruieren. Noch heute bildet dies die zu Grunde liegende Technik in jedem Prozessor. Mit "Plankalkül" entwarf er zudem die erste universelle Programmiersprache der Welt. 1941 war Zuses Z3 für den wissenschaftlichen Einsatz schon wesentlich leistungsfähiger und vor allem kleiner als spätere "Rechenmaschinen". Zuse setzte auf das binäre Zahlensystem und die Gleitkommarechnung. Mit der Zuse KG in NeuKirchen bei Hünfeld gegründet er den ersten Computerhersteller der Welt.

(http://www.gulli.com/img/zuse1.jpg)

Zuse war ein Besessener, der sich Stunden lang in seine Erfindungen stürzte und dazu musste man damals nicht nur am Rechner hocken, sondern auch die Ärmel hochkrempeln. Die Maschine war immer noch auch "mechanisch", was die Größe der Bauteile anging.

Der Visionär Zuse erkannte früh, dass die Rechner zukünftig aus dem Leben nicht mehr wegzudenken wären. Als man bei IBM 1944 noch davon ausging, dass eine Hand voll Rechner des Typs MARK I den globalen Rechenbedarf abdecken könnten, dachte Zuse schon an eine Serienproduktion. Erst 1964 wurde die Zuse KG von Siemens übernommen.

Quelle : www.gulli.com
Titel: Vor 60 Jahren: Das erste Computerprogramm startet
Beitrag von: SiLæncer am 09 Mai, 2009, 21:40
1, 4, 9, 16, 25, 36 ... Heute vor 60 Jahren lief ein Programm auf dem in Großbritannien gebauten EDSAC, dem Electronic Delay Storage Automatic Computer. In 2 Minuten und 35 Sekunden berechneten 3500 Röhren die Quadrate aller Zahlen von 0 bis 99 auf dem ersten vollkommen frei programmierbaren Digitalcomputer. Mit dem EDSAC der Universität Cambridge und der kommerziellen Kopie LEO 1 begann das Zeitalter der Universalcomputer.

(http://www.heise.de/bilder/137266/0/0)
Der Electronic Delay Storage Automatic Computer

Im Unterschied zum amerikanischen ENIAC und dem Rechner des Computerpioniers Atanasoff oder dem Colossus, der speziell für das Code-Knacken entwickelt wurde, musste der EDSAC für neue Rechenaufgaben nicht tagelang neu verkabelt werden. Wie Zuses elektromechanische Z3 war der EDSAC universal programmierbar, mithin der erste Rechner nach den Vorgaben der von Neumann-Architektur. Seine Konstruktion begann im Mai 1946, als der Physiker Maurice Wilkes John von Neumanns Artikel "Draft Report on the EDVAC" lesen konnte. Im Gegensatz zu den Details von ENIAC oder Colossus, die damals geheim waren, war diese 101 Seiten starke Arbeit zum fortschrittlicheren EDVAC, der im August 1949 seine Arbeit aufnahm, nicht als geheim klassifiziert. Der aus der Armee entlassene Wilkes arbeitete am Mathematik-Labor und machte der Universität den Vorschlag, nach dem EDVAC-Prinzip ein zentrales Rechenwerk zu bauen, das alle Fakultäten benutzen sollten. Zu seiner eigenen Überraschung kam der Vorschlag durch, wohl weil in Manchester ein ähnliches Projekt gestartet worden war. Wilkes durfte in die USA fliegen und diskutierte dort mit John Mauchly und Howard Aiken, aber auch mit dem Selectron-Erfinder Jan Rajchman.

Im Unterschied zu den amerikanischen Entwicklungen und gegen den Rat von Howard Aiken entschied sich Wilkens als Arbeitsspeicher seiner EDVAC-Kopie auf den Quecksilber-Verzögerungsspeicher zurückzugreifen. Im Krieg hatte er Radarsysteme konstruiert, bei denen diese Speicher benutzt wurden, um unerwünschte Echos auszufiltern. Ein weiterer Unterschied zu den vom US-Militär finanzierten ENIAC-und EDVAC-Projekten bestand in der kommerziellen Unterstützung durch den Nahrungsmittelkonzern Lyons. Die Firma, die ähnlich wie später Starbucks durch eine Kette von Teehäusern groß geworden war, finanzierte Assistentenstellen beim EDSAC-Projekt und stellte einen Ingenieur ab, der zuvor Brühwurst-Automaten entwickelt hatte. Seine Aufgabe war es, aus dem universitären Forschungsprojekt einen kommerziellen Rechner zu entwickeln. Lyons Electronic Office I oder LEO I war ein EDSAC-Klone mit größerem Arbeitsspeicher. Den Beweis der Nützlichkeit von Computern im Büro trat LEO 1 nach einigen Fehlschlägen im Dezember 1953 an, als die Lohnbuchhaltung des Konzerns computerisiert wurde. Für die Berechnung des Lohns eines Mitarbeiters brauchte ein erfahrener Buchhalter 8 Minuten, LEO I erledigte das in 1,5 Sekunden. Eine weitere Unterstützung erhielt das universitäre Projekt durch die britische BTM, damals eine Tochter der amerikanischen IBM. Sie stellte kostenlos Hollerith-Locher und -Leser zur Verfügung, mit denen Programme und Daten eingelesen wurden. Die Ergebnisse wurden auf einem Fernschreiber ausgegeben.

(http://www.heise.de/bilder/137266/1/0)
Maurice Wilkes sitzt im Jahr 1964 am Schreibtisch von Joe Weizenbaum im MIT und arbeitet am CTSS (Compatible Time Sharing System), einem Unix-Vorläufer.

EDSAC war ein 17-Bit-Computer, der mit 500 kHz arbeitete, einen Arbeitsspeicher mit 1024 Adressen besaß und über 18 5-Bit-Befehle wie A (Add), S (Subtract) oder O (Output/Drucken) verfügte. Die Arbeitsweise demonstriert der EDSAC-Simulator von Martin Campbell-Kelly. EDSAC 1 lief bis zum 11. Juli 1952 und wurde dann von EDSACc 2 abgelöst. Nach dem Berechnen der Quadratzahlen war das zweite Programm ein von David Wheeler geschriebenes Programm zur Berechnung von Primzahlen. Dieses Programm wurde auf der ersten außeramerikanischen Konferenz für schnelle Rechenmaschinen 1949 in Cambridge demonstriert und sorgte für enormes Aufsehen. Auf deutscher Seite nahm Alwin Walther teil, der nach dem Vorbild des EDSAC den DERA baute, den Darmstädter Elektronischen Rechenautomaten.

Schon das dritte, etwas anspruchsvollere Programm, die Berechnung von Airy-Funktionen, lief erst nach vielen, vielen Änderungen im Sourcecode. Programmierer Maurice Wilkes, der zwischen dem Lochstreifen-Raum im Erdgeschoss und dem Computer-Raum mit EDSAC im vierten Stock hin- und herkletterte, schrieb in seinen Erinnerungen über das erste Debugging: "Während ich die Stufen hoch und runter hetzte, wurde mir schlagartig klar, dass ich zu einem guten Teil den Rest meines Lebens damit verbringen würde, Fehler in meinen eigenen Programmen auszumerzen."

EDSAC brachte noch andere Erkenntnisse, die trivial erscheinen mögen. David Wheeler erfand die Subroutine. Erprobte, fehlerfreie Programme wurden bald in Programmbibliotheken verwaltet. Wie die am EDSAC ausgebildete Informatikerin Karen Spärck Jones in einer kurzen EDSAC-Geschichte schrieb, begründete der Computer eine ehrwürdige Tradition: Nachts, wenn die offiziellen Operatoren Feierabend hatten, durften mit dem System erfahrene Studenten experimentieren, bis die Maschine den Geist aufgab. Heute würde man sie Hacker nennen.

Quelle : www.heise.de
Titel: 30 Jahre "Computer Communication Compatibility"
Beitrag von: SiLæncer am 02 Juli, 2009, 15:57
Vor 30 Jahren gründete Bob Metcalfe, einer der Entwickler des Ethernet-Standards, die Firma "Computer Communication Compatibility". Sie wuchs unter dem Kürzel 3Com nach der Vorstellung der ersten Ethernet-Netzwerkkarte für den IBM-PC im September 1982 zu einer Weltfirma, die zu ihren besten Zeiten 12.000 Entwickler beschäftigte. Der Geburtstag (PDF-Datei) wird derzeit in den USA und China gefeiert.

Drei Jahre hatte Bob Metcalfe die Gründung von 3Com vorbereitet. Der Ingenieur, der mit einer Dissertation über die Unterschiede zwischen dem ARPAnet und dem ALOHAnet die Universität Harvard abschloss, war unzufrieden, dass sein Arbeitgeber Xerox die Erfindung der Ethernet-Technik nicht kommerzialisierte. In den PARC-Labors von Xerox hatte Metcalfe am 22. Mai 1973 die entscheidende Erfindung gemacht, die Ethernet auszeichnete. Sie trug den sperrigen Namen Carrier sense multiple access with collision detection (CSMA/CD) und beschreibt, wie eine sendende Station ins Netz horchen soll, wenn sie ein Datenpaket absetzen will und Kollisionen mit anderen Stationen vermieden werden sollen – und wie sie das Aussenden der Pakete zu wiederholen hat, wenn es doch zu Kollisionen kommt.

Metcalfe hatte damals am PARC die Aufgabe von Charles Simonyi übernommen, ein 2-MBit/s-Netzwerk mit maximal 256 Knoten zu entwickeln. Während Simonyi das programmierte, was heute als "Microsoft Word" bekannt ist, entwickelten Bob Metcalfe, David Boggs, Butler Lampson und Chuck Thacker das Netzwerksystem, das sie Ethernet nannten, in Anspielung auf den Äther, der früher in der Physik eine Rolle spielte.

Als Ethernet am PARC erfolgreich installiert war und sogar Verbindungen mit dem ARPAnet funktionierten, sah Metcalfe die Chance, spezielle Chips für die Ethernet-Verbindungen zu entwickeln: Im November 1978 hatte es der Xerox-Ingenieur in zähen Verhandlungen durchgesetzt, dass Xerox, DEC und Intel Ethernet als IEEE-Standard für ein 10 MBit/s-Netzwerk etablierten. Auf diesem neuen Standard gründete sich Metcalfes Geschäftsidee mit dem Startup 3Com. Dabei hatte Metcalfe Glück. Als 3Com 1979 mit der Entwicklung von Ethernet-Prozessoren begann, erfuhren Metcalfes Ingeneure von IBM-Plänen, einen Personal-Computer zu bauen. Als der PC im August 1981 vorgestellt wurde, war man bei 3Com mit Hochdruck dabei, die Netzwerkkarte für diesen Rechner zu entwickeln. "Wir schafften es, für diesen brandneuen Rechner eine Steckkarte namens Etherlink zu entwickeln. Für 1000 Dollar konnten die Leute ihren PC ans Ethernet anschließen, für das wir ihnen natürlich noch ein Netzwerksystem verkauften. Das Geschäft entwickelte sich prächtig, wir konnten 1984 an die Börse gehen. Als ich 3Com 1990 verließ, hatte der Laden 2000 Leute und machte eine halbe Milliarde Umsatz im Jahr", erzählte Metcalfe in einem Heise-Interview im Jahre 1993.

Neben den Etherlink-Netzwerkkarten und dem Netwerksystem 3+ entwickelte 3Com noch mit der 3Station im Jahre 1986 die erste "Diskless-Workstation" auf Basis der PC-Architektur. War die Fixierung auf den PC anfangs ungemein erfolgreich, so barg sie auch große Risiken. So ging Bill Krause, der erste Geschäftsführer von 3Com, im Jahre 1987 eine enge Kooperation mit IBM und Microsoft ein und verpflichtete sich, für das in der Entwicklung befindliche Betriebssystem OS/2 die Netzwerkfunktionen zu entwickeln. Als sich Microsoft und IBM über OS/2 zerstritten und die Entwicklung zeitweise gestoppt war, musste 3Com sein Netzwerk "3+ Open LAN Manager" dennoch vertragsgerecht auf den Markt bringen. Nach der Erinnerung von Eric Benhamou, dem zweiten Geschäftsführer von 3Com, stand die Firma nah am Rande des Bankrotts. Es dauerte bis 1992, dass 3Com nach dem Desaster wieder Gewinne schreiben konnte.

1997 entschloss sich 3Com, im steten Kampf mit dem hartnäckigen Konkurrenten Cisco Systems voll auf den Online-Hype zu setzen, und kaufte für 6,5 Milliarden Dollar die Firma US Robotics, um das "AOL der Zugriffstechnik" zu werden, wie Benhamou es damals formulierte. Die erhofften Synergien entwickelten sich eher schleppend, nur der Börsengang der Palm-Sparte war erfolgreich. Auf den Internet-Boom versuchte 3Com, mit einer Internet Appliance namens Audrey (nach Audrey Hepburn) zu reagieren. Das für 500 Millionen Dollar entwickelte Gerät erwies sich jedoch als grandioser Flop, als gleichzeitig mit dem Marktstart die "Dotcom-Blase" platzte.

Erfolgreicher verlief eine Allianz mit der chinesischen Firma Huawei, durch die 3Com gegenüber Cisco beim Vertrieb von Netzwerk-Equipment in China punkten konnte. Das Gemeinschaftsunternehmen H3C wurde in China zum Marktführer bei Lösungen für die Videoüberwachung, ehe es komplett von 3Com übernommen wurde, das mit dieser Übernahme die Unternehmensführung nach China verlagerte. Heute steht 3Com wieder gesund da und konnte zuletzt einen Nettogewinn von 94,6 Millionen Dollar vorweisen.

Quelle : www.heise.de (http://www.heise.de)
Titel: 40 Jahre Unix
Beitrag von: SiLæncer am 05 August, 2009, 13:14
In der Zeitrechnung der IT gelten 40 Jahre schon als Äonen. Auf eine solch lange Geschichte kann das Betriebssystem Unix – oder aus heutiger Sicht die Betriebssystemfamilie der Unices – zurückblicken. Die Initialzündung leistete AT&T 1969 als man entschied, die bislang am MIT-Gemeinschaftsprojekt Multics arbeitenden Bell-Labs-Mitarbeiter wegen Zweifeln an der Realisierbarkeit des Projekts zurückzuziehen. Zu diesen gehörten unter anderem Ken Thompson und Dennis Ritchie. Ersterer hält aber an der Idee eines Multi-User-Systems als Arbeitsumgebung fest und nutzt im August 1969 die urlaubsbedingte Abwesenheit seiner Familie, um in je einer Woche Assembler, Betriebssystem, Editor und Shell per Lochkarten auf eine PDP-7 zu übertragen.

1970 zieht das zu der Zeit Unics genannte System auf eine PDP-11 um, ein Jahr später ist das Unix Time-Sharing System First Edition (V1) fertig. Eine der weitreichendsten Änderungen erfuhr Unix allerdings erst 1973: Dennis Ritchie und Ken Thompson schrieben das Betriebssystem in der Sprache C komplett neu und öffneten damit dem Weg für Portierungen auf andere Hardwareplattformen. 25 Jahre später ehrte der damalige US-Präsident Clinton die Arbeit der beiden, indem er ihnen mit der "National Medal of Technology" die höchste staatliche Auszeichnung verlieh.

Heute deckt die Familie der "unixoiden" Betriebssysteme vom Embedded-System bis hin zum Supercomputer fast das gesamte IT-Gerätespektrum ab. Éric Lévénez hat die Abhängigkeiten und Verwandtschaften von rund 150 Unix-Derivaten und -Dialekten analysiert und grafisch in seiner Unix-History (http://www.levenez.com/unix/) aufbereitet.

Quelle : www.heise.de (http://www.heise.de)
Titel: Harwell: 60 Jahre alter Rechner soll wieder starten
Beitrag von: SiLæncer am 04 September, 2009, 19:22
Im Jahre 1951 wurde der Computer namens Harwell in Großbritannien das erste Mal hochgefahren. Vorwiegend wurde er zu Forschungs- und zu Kalkulations-Zwecken eingesetzt. Nun soll er den Betrieb wieder aufnehmen.

Seinen ursprünglichen Aufgaben wird der mittlerweile technisch weit überholte Rechner höchst wahrscheinlich im National Museum of Computing in England nicht mehr nachgehen.

Bevor der inzwischen in die Jahre gekommene Rechner wieder gestartet werden kann, müssen noch einige Wartungsarbeiten durchgeführt werden, hieß es. Vermutlich werde die Restauration ein Jahr dauern.

Dick Barnes ist einer der beteiligten Erbauer des 1949 entworfenen Rechners. Er selbst zeigt sich sichtlich erfreut darüber, dass der Computer nach über 30 Jahren wieder aktiviert werden soll.

Im Allgemeinen könne Harwell eine beachtliche Arbeitszeit vorweisen, hieß es auf dem Online-Portal RedOrbit (http://www.redorbit.com/news/technology/1747729/britains_oldest_computer_to_be_restored/).

Quelle : http://winfuture.de
Titel: Re: Harwell: 60 Jahre alter Rechner soll wieder starten
Beitrag von: Jürgen am 05 September, 2009, 01:00
Laut RedOrbit von 1951 bis 1973 im Einsatz, das ist tatsächlich erstaunlich.
Das Glimmrelais-Röhren- und Lochstreifen-Teil muss enorme Mengen an Strom gefressen und ständige Wartung gebraucht haben, einschliesslich ständigem Röhrenwechsel, bis die Sockel nachgeben.

Ich vermute, danach wurde das Ding durch einen der ersten programmierbaren Taschenrechner ersetzt...
Titel: Re: Harwell: 60 Jahre alter Rechner soll wieder starten
Beitrag von: SiLæncer am 05 September, 2009, 10:29
Ich vermute, danach wurde das Ding durch einen der ersten programmierbaren Taschenrechner ersetzt...

Der dann bestimmt ein vielfaches an Rechenleistung hatte ;D
Titel: Re: Harwell: 60 Jahre alter Rechner soll wieder starten
Beitrag von: Jürgen am 05 September, 2009, 14:02
...und zur Eingabe eine Tastatur und zur Ausgabe ein LC-Display (sowie optional eine Docking-Station mit Datenschnittstelle zum Tape).
Und Stromversorgung aus Batterien.

Zumindest war derlei nur wenige Jahre später, so etwa ab 1978, selbst für Schüler halbwegs erschwinglich.
Und mit nichtflüchtige Registern ausgestattet. Weshalb die dann bei Klassenarbeiten nicht erlaubt waren...
Ich selbst hatte zwar nur einen fast "normalen" Taschenrechner Omron 12SR, aber mein kleiner Bruder leistete sich wenig später den brandaktuellen Casio FX-501P. Mathe Leistungskurs...  ::)
Titel: Computerpioniere: Die Technik-Zombies
Beitrag von: SiLæncer am 22 September, 2009, 20:20
Sie waren mal die Größten, bauten die schnellsten, schönsten Rechner, doch heute sind Firmen wie Silicon Graphics und Acorn fast vergessen. Zu unrecht, denn viele ihrer Innovationen leben weiter - zum Beispiel im Herzen des iPhones. SPIEGEL ONLINE zeigt die Underdogs der Computergeschichte.

So ganz verschwinden Computerlegenden nie. Auch wenn die einst legendären Namen fast vergessen sind, lebt irgendwo ein bisschen der Technik weiter: In Apples iPhone und Amazons E-Book-Lesegerät Kindle zum Beispiel arbeiten Chips, die auf Entwicklungen der britischen Computerfirma Acorn zurückgehen. An Acorn erinnert sich weltweit kaum jemand, nur in Großbritannien schwelgen technikaffine Lokalpatrioten noch in Erinnerung an das "britische Gegenstück zu Apple" (O-Ton aus einem Forschungsbericht).

Acorn ist nicht das einzige Unternehmen, dessen Name einst Gemüter und Börsenkurse bewegte, das dann aber fast vollständig von der Bildfläche verschwand. Was ist zum Beispiel aus Cray geworden, dem Hersteller von Superrechnern, dessen Firmenname einst ein geradezu mythischer Ruf anhaftete?

Und was wurde aus Silicon Graphics, dem Unternehmen, das die Dinosaurier aus "Jurassic Park" zum Leben erwecken half, einer Firma, die immerhin mal als heißester Hardware-Hersteller im ganzen Silicon Valley galt?

Silicon Graphics - zwei Pleiten, ein Multimillionär

Ach ja, die Dinosaurier. Die computeranimierten Riesen-Reptilien aus Steven Spielbergs "Jurassic Park" haben den Computerbauer Silicon Graphics berühmt gemacht. Damals, Anfang der neunziger Jahre, rechnete Hollywood damit, dass man Filme in Zukunft auf den Hochleistungsrechnern von Silicon Graphics machen würde. Regisseur James Cameron prophezeite dem SPIEGEL damals: "Der Regisseur wird sich in einen bequemen Sessel setzen und mit den Bildern am Computer spielen."

15 Jahre später arbeiten sich Computer an fast jedem Film ab - nur werden all die kleinen Korrekturen und großen Spezialeffekte nicht mehr allein von Spezialrechnern der einstigen Vorzeige-Firma Silicon Graphics ("the hottest computer company in Silicon Valley" laut "Wired", 1994 ) berechnet. Die Folge: Silicon Graphics musste zweimal Gläubigerschutz beantragen, 2006 und 2009.

Gegründet wurde die Firma in einer anderen Zeit: Anfang der Achtziger, als Arbeitsplatzrechner noch selten und leistungsschwach waren. Damals entwickelte der Informatiker James H. Clark - Hochschullehrer an der Stanford University - neue Methoden zur Berechnung und Darstellung bewegter dreidimensionaler Körper auf Rechnern mit spezieller Hard- und Software.

Wie der Silicon-Graphics-Gründer mit Netscape absahnte

1981 gründete Clark mit dem Xerox-Manager Abbey Silverstone und einigen Stanford-Absolventen Silicon Graphics und verkaufte bald die ersten Terminal-Rechner zur Bewegtbild-Produktion. Die Firma verbaute immer neue spezialisierte Chips, so dass die Arbeitsplatzrechner (Grafik-Workstations genannt) schnell genug wurden, um kleinere 3-D-Animationen allein zu berechnen.

Für diese fixen, spezialisierten Workstation war Silicon Graphics berühmt. Als dann billigere Standard-PC und Grafikkarten schnell genug wurden, um solche Jobs zu erledigen, brach der für Silicon Graphics wichtige Umsatz mit Workstations weg. Das Geschäft mit spezialisierten Hochleistungsrechnern und Servern wuchs nicht schnell genug, um die Umsatzverluste auszugleichen.

Firmengründer Clark stieg 1994 aus, um eine neue Firma zu gründen. In einer E-Mail an die Mitarbeiter sprach er damals von "großen unternehmerischen Chancen bei Software für interaktives Fernsehen", die er verfolgen wolle. Im selben Jahr gründete er mit Marc Andreessen das Unternehmen Netscape - die Firma, die den Browser-Krieg mit Microsoft ausfocht und lange Zeit führte.

Stammplatz für Clark auf der "Forbes"-Liste

Der Netscape-Börsengang 1995 machte Clark und Andreessen zu Multimillionären - Clarks Firmenanteile sollen zu Hochzeiten des Aktienkurses zwei Milliarden Dollar wert gewesen sein, 1999 übernahm AOL Netscape für 4,2 Milliarden Dollar. Wie viel Clark für seine Anteile erhielt, ist nicht klar - sein Name steht jedenfalls seit Jahren auf der "Forbes"-Rangliste der 400 reichsten Amerikaner. Clark spendet immer wieder Millionenbeträge an US-Unis (1999 zum Beispiel 150 Millionen Dollar an Stanford) und besitzt mehrere Yachten. Seine Tochter ist mit dem YouTube-Gründer Chad Hurley verheiratet.

So gut es dem Firmengründer Clark ergangen ist, so schlecht lief es für Silicon Graphics in den vergangen Jahren: Nach dem zweiten Antrag auf Gläubigerschutz übernahm der erst 1999 gegründete Server-Bauer Rackable die Firma für gerade mal 42,5 Millionen US-Dollar.

Rackable macht Verluste und erwirtschaftete im ersten Halbjahr fast die Hälfte seines Umsatzes mit Server-Lieferungen an zwei Firmen (30 Prozent Amazon, 13 Prozent Microsoft). Es könnte also besser aussehen für den Grafik-Dinosaurier. Aber SGI versucht es noch einmal, ausgerechnet mit dem Workstation-Konzept: Der neue Arbeitsplatz-Rechner Octane III ist laut SGI ein "personal supercomputer". Preis: mindestens 8000 US-Dollar.

Cray Research - die Megaflops

Anfang der fünfziger Jahre begann der Ingenieur Seymour Cray Supercomputer zu bauen. Cray hatte mit seinen 25 Jahren ein Ingenieurstudium hinter sich und Erfahrung als Funker und Codeknacker bei der US-Marine. Er plante Supercomputer bei der Firma "Engineering Research Associates" (die im Zweiten Weltkrieg Codes für die US-Marine knackte), er wechselte zur Control Data Corporation (CDC) und baute dort die damals schnellsten Supercomputer der Welt (den CDC 7600).

Crays Entwicklungsarbeit kostete CDC viel Geld, die Investitionen für die Entwicklung des CDC-7600-Nachfolgers sollte gesenkt werden, da ging Cray und gründete 1972 seine eigene Firma - Cray Research. Der erste Rechner der Firma erschien 1976 (siehe Fotostrecke in der linken Spalte). Der Cray-1 war laut "Science" fünfmal so schnell wie der CDC 7600, von dem innerhalb von acht Jahren immerhin 85 Exemplare verkauft wurden. Den ersten Cray-1 bestellte für acht Millionen US-Dollar das US-Atomwaffenlabor Los Alamos. Das US-Verteidigungsministerium orderte auch Cray-Rechner.

Auf den falschen Halbleiter gesetzt - und einen Flop produziert

Zwei Jahrzehnte lang machte Cray gute Geschäfte mit den Mammutrechnern - Militärs, Geheimdienste, Universitäten kauften die Maschinen, und die werden über die Preise wohl nicht allzu rabiat verhandelt haben. Anfang der neunziger Jahre verzettelte sich Cray Research bei der parallelen Entwicklung mehrerer teurer Technologien, 1996 kaufte Silicon Graphics die Firma, 2000 übernahm der Supercomputer-Hersteller Tera Cray. Heute tauchen auf der Top-500-Liste der Supercomputer immerhin 20 Cray-Rechner auf (Platz 3 hinter HP mit 212 Vertretern und IBM mit 188) - die sind aber allesamt unter den 100 schnellsten.

Seymour Cray hatte Cray Research schon 1989 verlassen - er wollte den Cray-3 und Cray-4 in Eigenregie für seine neue Firma entwickeln, die Cray Computer Corporation. Das Ende des Kalten Krieges kam ihm dazwischen: Crays Ziel war, dass jede von ihm entwickelte Superrechner-Generation zehnmal schneller als die vorangegangene ist. Um diesen Leistungssprung beim Cray-3 zu schaffen, wollte Cray auf das bewährte Silizium als Halbleitermaterial verzichten und das erheblich teurere, weniger erprobte aber theoretisch mit weniger Energieaufwand leistungsfähigere Galliumarsenid nutzen. Da die Militärbudgets sanken, schien es aussichtslos, die erheblichen Entwicklungskosten für diese Technik je wieder von Kunden einzunehmen. Cray Computer Corporation meldete 1995 Konkurs an. Seymour Cray starb 1996 an Verletzungen, die er sich bei einem Autounfall zugezogen hatte.

Acorn Computers - britische Chips im iPhone

1978 gründeten der britische Ingenieur Chris Curry und Hermann Hauser, Erbe einer Tiroler Weinhändler-Dynastie und Physik-Doktorand in Cambridge, ein Computer-Start-up. Sie entwickelten Steuerungs-Hardware für Spielautomaten und allerlei Auftragsarbeiten, bis sie den Heimcomputer-Markt aufmischten. Ihr erster Heimrechner, der Atom, war ein kleiner Erfolg, ihr zweiter eine Sensation: Der BBC Micro entstand infolge einer von der Regierung unterstützten Kampagne zur Informatik-Weiterbildung. Die BBC-Fernsehserie "Wie man das meiste aus dem Mikro-Computer herausholt" demonstrierte anhand des BBC Micro, was man mit Heimrechnern alles machen kann. 1981 erschien der Heimrechner (eigentlich Acorn A getauft), bis 1983 hatten Hauser und Curry 240.000 Stück verkauft. Als die Firma im September 1983 an die Börse ging, waren Hauser und Curry auf dem Papier Multimillionäre.

Der Erfolg war allerdings recht bald wieder vorbei - beim Nachfolgemodell Electron verrechnete sich das Unternehmen: Acorn hatte bei Zulieferern auf lange Zeit nicht anpassbare Mindestabnahmemengen garantiert, technische Probleme führten zu Lieferverzögerungen, im wichtigen Weihnachtsgeschäft 1983 konnte die Firma nur einen Bruchteil der bestellten Rechner verkaufen. 1984 brach die Nachfrage ein, und Acorn hatte einen Lagerbestand von angeblich einer Viertelmillion nicht verkaufter, aber beim Lieferanten bezahlter Rechner.

1985 übernahm Olivetti die Firma. In den neunziger Jahren scheiterte Acorn mit Versuchen, ein großes Geschäft mit Set-Top-Boxen zu machen. Da damals niemand für Video-on-Demand bezahlen wollte, wurde die Hardware nicht gebraucht. Nach einigen arg komplizierten Finanzmark-Transaktionen ist das heute bekannteste Überbleibsel von Acorn die Firma ARM Holdings. ARM ist die Abkürzung für "Acorn-RISC-Machine", ein Prozessor-Design, das Acorn von 1983 an entwickelte.

Diese Chips sind einigermaßen schnell und sehr sparsam. ARM Holdings verkauft Lizenzen für die Fertigung von Chips mit dieser Technik. In den meisten Mobiltelefonen und PDAs arbeiten heute noch ARM-Chips. So zum Beispiel in Apples iPhone, in Amazons Kindle und in sehr vielen Nokia-Handys. Allein 2008 sollen 2,5 Milliarden Prozessoren auf ARM-Basis hergestellt worden sein.

Das Apple-Mobiltelefon arbeitet also mit dem Chip-Design einer britischen Firma - die dort schon seit vielen Jahren "the British Apple" genannt wird.

Quelle : www.spiegel.de
Titel: Auferstanden aus Platinen
Beitrag von: SiLæncer am 07 Oktober, 2009, 16:05
10 Jahre nach der Deutschen Einigung sind DDR-Computer begehrte Sammelobjekte

1991 wurden die Hersteller der DDR-Computer abgewickelt. Heute sind die Rechner ebenso wie alte Westrechner Sammelobjekte. Für einen KC85 wird mit 50-150 DM etwa ebensoviel bezahlt wie für einen C64. Späte Gerechtigkeit im Antiquitätenhimmel: Als Kunstwerk haben Ostrechner den gleichen Tauschwert wie Westrechner.

(http://www.heise.de/tp/r4/artikel/8/8841/8841_1.gif)
Der KC85

Die Geschichte der Kleincomputer in der DDR reicht weit zurück: Bereits in den 1960er Jahren wurde in Ostdeutschland mit der Entwicklung von Computern und mit der Ausbildung von Datenverarbeitungsfachleuten begonnen. Sowjetische Kybernetiker wie Gluschkov erkannten die Bedeutung der Informationstechnologie für eine geplante Wirtschaft und träumten vom Aufbau umfassender Computernetzwerke. Aus diesen Bestrebungen entstand das Kombinat für Datenverarbeitung (KDV), das Dienstleistungen für Betriebe und Handelseinrichtungen durchführte.

(http://www.heise.de/tp/r4/artikel/8/8841/8841_2.jpg)
KC85 in Nahaufnahme

Ebenfalls in den 1960er Jahren entstanden Rechenzentren in Betrieben und Kombinaten. Neben diversen Informatik-Studiengängen schuf die DDR auch einen Ausbildungsgang zum "Facharbeiter für Datenverarbeitung" und Fachschulen für Ökonomie und Datenverarbeitung in Rodewisch, Berlin und Gotha. Ende der 1980er Jahre wurden jedem Schüler in der neunten Klasse Grundkenntnisse am Computer vermittelt. Sogar Computerspiele waren, im Gegensatz zur BRD, wo seit 1984 keine Videospielautomaten an öffentlichen Plätzen aufgestellt werden durften, geschätzter Bestandteil des öffentlichen Lebens. So wurde auf der Konferenz "Computernutzung in der außerunterichtlichen Tätigkeit" in Halle 1988 festgestellt, dass "Computerspiele objektiv Tendenzen besitzen, die Ideen und Werte des Sozialismus durch die Kinder über Spiel und Romantik aneignen zu lassen" (Vgl. Computer- und Videospiele in der DDR. Auch an die 1000 Computerclubs gab es in der DDR - viele davon an Schulen und Hochschulen, aber auch reine Freizeitclubs. Dort wurde nicht nur programmiert, sondern auch viel gebastelt und Software getauscht.

(http://www.heise.de/tp/r4/artikel/8/8841/8841_3.gif)
Screen des Aktienspiels

Kein Wunder also, dass die Planwirtschaft die Produktion auch solcher Güter berücksichtigen musste. Mit "geistigem Eigentum" versorgte die DDR ihre Bürger sogar geradezu großzügig: Zahlreiche Bauanleitungen für Mikrocomputer erschienen Mitte der 1980er in Zeitschriften wie "Rundfunk- und Fernsehtechnik", "Jugend und Technik" und "Funkamateur". In letzterer waren neben der Bauanleitung für den AC1, den "Amateurcomputer 1" auch regelmäßige Bastel- und Programmieranleitungen für Westcomputer wie den C64 abgedruckt. Seit 1985 konnten solche Heimcomputer gegen Westmark in Intershops gekauft werden. Leistungsfähigere Westrechner fielen allerdings unter das COCOM-Exportverbot (Coordinating Committee on Export Controls).

Neben Anleitungen wurden in der DDR aber auch Bausätze und fertige Rechner hergestellt. Als erste Mikrocomputerprodukte der DDR gelten der Polycomputer 880 und der Einplatinenrechner LC 80. Letzterer verfügte über eine Taschenrechnertastatur. Er konnte in Maschinensprache programmiert werden und hatte einen 1k großen Hauptspeicher.

(http://www.heise.de/tp/r4/artikel/8/8841/8841_4.gif)
Bausatzcomputer Z1013

1984 begann der VEB Robotron-Elektronik in Riesa mit der Herstellung eines Computerbausatzes, des Z1013. Den Computer gab es als Konsumgut Z1013.01 sowie als Z1013.12 für den industriellen Einsatz. 1987 kam das Nachfolgemodell Z1013.16 auf den Plan, das 965 Ostmark kostete. Der Z1013-Bausatz enthielt eine Platine, die mit einem UB880-Prozessor (der in etwa einem Zilog Z80 entsprach) versehen war, und eine Folienflachtastatur mit 32 Tasten, die vierfach belegt werden konnten. Das Netzteil sowie der Tastaturanschluss mussten vom Benutzer selbst gebastelt werden. Bedenkt man, dass DDR-Bastler es schafften, Joysticks aus Blinkern zu fertigen und Schreibmaschinen als Drucker zu benutzen, stellt so etwas aber keine große Hürde dar. Die Platine wurde an einen Fernseher angeschlossen, der als Bildschirm diente. Auf 32 mal 32 Zeichen konnte ein 2k ROM-Zeichengenerator Buchstaben, Sonderzeichen und Blockgrafikzeichen erzeugen. Außerdem enthielt die Platine Anschlüsse für einen Kassettenrecorder zur Datenspeicherung, sowie für Erweiterungskarten.

Der Z1013 konnte auf 4 MHz hochgetaktet werden. Um den Hauptspeicher des Rechners auf bis zu 64k zu erweitern, mussten Bastler über den Systembus gehen oder zum Lötkolben greifen. Am Systembus ließen sich außerdem 16k Arbeitsspeichermodule für den KC85/1 und ein EPROM-Brenner anschließen. Zusätzlich gab es Bausätze für die Ansteuerung eines Diskettenlaufwerks auf Grundlage des Controllerschaltkreises U8272 und für eine Grafikplatine auf Grundlage eines D7220 Grafikprozessors mit 8k-Speicher. Der ROM des Z1013 war mit Z80 Assembler/Disassembler-Routinen beschrieben. Über Kassette konnte BASIC und andere Software geladen werden. Linux-Benutzer können sich per Emulator in die Welt des Z1013 versetzen. Der Z1013 Emulator für Windows ist dagegen nur bedingt einsetzbar, da er veränderte Sprungadressen verwendet.

(http://www.heise.de/tp/r4/artikel/8/8841/8841_5.jpg)
KC87

Der 1984/85 entwickelte HC900, der "Heimcomputer 900" war der Vorläufer der berühmten KC85-Serie. War der Bausatz Z1013 bedeutungsmäßig mit dem ZX80 oder dem ZX81 von Sinclair vergleichbar, so entspricht die KC85-Serie dem Commodore 64. Entgegen der Namensgleichheit ist der KC85/1 kein Kind der KC85-Serie, sondern der 1984 entwickelte und dann umbenannte Z9001. Der KC85/1 vereinte (wie der C64) Rechner und Tastatur in einem Block. Er enthielt einen U880-Prozessor, 16k RAM und 4k ROM. An Erweiterungen gab es u.a. einen "Spielhebel" (Joystick). Weiterentwickelt wurde der KC85/1 1986 zum KC87, der zusätzlich über erweiterte ROM-Routinen und einen BASIC-Interpreter verfügte. Sowohl beim HC900 (später umbenannt in KC85/2) als auch bei den KC85/3-4 waren dagegen Tastatur und Rechner getrennt.

Die Computer konnten über Erweiterungsschächte und über einen Gehäuseaufsatz mit verschiedenen Modulen ausgestattet werden. Sie liefen mit dem DDR-Prozessor U880 der auf 1,75-1,77 MHz getaktet war und hatten 32-64k RAM. Auf 4, 16 oder 20k ROM war das Betriebssystem untergebracht. Die Rechner waren unter anderem serienmäßig mit zwei Tongeneratoren ausgestattet und konnten mit BASIC, Assembler und PASCAL arbeiten. Das Betriebssystem der KC85-Serie trug den großartigen Namen "CAOS". Emulatoren für die KC85-Computer gibt es für Linux, DOS und Windows. KC85-Spiele wie "Aliens", "Attack" und sogar ein "Aktienspiel" [!] stehen ebenfalls zum freien Download zur Verfügung.

(http://www.heise.de/tp/r4/artikel/8/8841/8841_6.jpg)
Der Standard-PC der DDR war der 1715

Die Kleinkomputer wurden nicht nur zum Lernen und zum Vergnügen, sondern auch in der Lagerverwaltung, der Prozessüberwachung- und -Steuerung und zur Textverarbeitung eingesetzt. Für Unterrichtszwecke gab es neben den Kleincomputern auch eigens für den Unterricht entwickelte "Bildungscomputer" wie den A 5105, der ab 1988 produziert wurde.

Neben den KC85-Modellen wurden in der DDR noch eine Reihe weniger bekannter Kleincomputer produziert: An der TU Magdeburg entstand 1987 der HCX, ein Clone des ZX Spectrum, der zwar nicht auf den Plan kam, aber privat nachgebaut wurde. Auch das IFAM in Erfurt entwickelte einen ZX Spectrum-Nachbau, den "Spectral". Der KC Compact orientierte sich dagegen am Amstrad CPC 464, lief mit 4 MHz und wurde erst im Oktober 1989 vom VEB Mikroelektronik "Wilhelm Pieck" Mühlhausen präsentiert. Er war mit 3,75 MHz getaktet, verfügte über 64k RAM, und unter anderem Anschlüsse für eine Maus und zwei Joysticks.

Für professionelle Anwendungen produzierte die DDR auch "Personalcomputer" und "Arbeitsplatzcomputer". An deren Anfang standen die Bürorechner A5120 und A5130, die beide in der ersten Hälfte der 80er Jahre vom VEB Buchungsmaschinenwerk Karl-Marx-Stadt gebaut wurden. Für allgemeine technische Anwendungen gab es den MC80, einen 8-Bit-Rechner mit U880-Prozessor. Standard-PC der DDR wurde der 1715. Er lief von 1985 an mit einem auf 4 MHz getasteten U880 und einem CP/M-Clone als Betriebssystem in ostdeutschen Büros.

Der "Arbeitsplatzcomputer" A7100 und seine Weiterentwicklung, der A7150, waren dagegen mit Intel-8086-kompatiblen 16-Bit-CPUs aus sowjetischer Produktion versehen und grafikfähig. Sie verfügten über zwei 5 1/4-Zoll-Diskettenlaufwerke und waren gut für CAD/CAM-Aufgaben geeignet. Auch der XT-kompatible "EC1834" war mit einer sowjetischen 16-Bit-CPU ausgestattet. Als Speichermöglichkeit standen ihm zwei oder vier Floppy-Laufwerke mit je 720k und eine Festplatte mit 20 MB zur Verfügung. Die letzte Entwicklung dieser Reihe war 1990 der AT-kompatible EC1835. Sowohl der A7150 als auch die EC-Rechner wurden überdies als Terminals in Verbindung mit Mainframes des "Einheitlichen Systems der elektronischen Rechentechnik" (ESER) eingesetzt. Die IBM-kompatiblen DDR-Rechner (von denen 1989 immerhin 130000 Stück produziert worden sein sollen) wurden jedoch ausschließlich (und zu entsprechenden Preisen) an die Industrie geliefert. Mit dem K1840 entwickelte die DDR sogar einen 32-Bit-Rechner, um dem COCOM ein Schnippchen schlagen: Der K1840 verfügte über einen Hauptspeicher von standardmäßig 8 MB und lief auf dem UNIX-kompatiblen Betriebssystem MUTOS.

Die Softwareentwicklung konzentrierte sich im Gegensatz zur Hardwareentwicklung nicht auf einen Betrieb (Robotron). Die Universitäten und die Kombinats-Rechenzentren schufen Software, die vor allem bezüglich der algorithmischen Grundlagen höchstem Niveau entsprach. Aber auch Robotron entwickelte neben MUTOS u.a. das MS-DOS-kompatible DCP und das VMS-kompatible SVP. Nach der Wende drohten Firmen wie Microsoft den Herstellern der Ost-Systeme wegen der Ähnlichkeit zu West-Systemen mit Urheberrechtsklagen.[1] Die Konservierung der Ost-Software profitiert trotzdem davon, dass im Gegensatz zum Westen weniger Verwalter von Urheberrechten einer Rettung und Erhaltung im Wege stehen (Vgl. Dem Volk, was dem Volk gehört).

Im Gegensatz zu den Sammlern alter Computer und Programme hat der Bundesrat am Freitag eine andere DDR-Tradition wiederbelebt: Vier Tage vor dem Jubiläum beschloß er eine neue Telekommunikationsdatenschutzverordnung (TDSV), die Anbieter von Telekommunikationsleistungen verpflichtet, alle Verbindungsdaten sechs Monate lang zu speichern. Diese Pflicht zur Speicherung "dient nur als vorsorgliche Datensammlung für eventuell in der Zukunft stattfindende Zugriffe der Sicherheitsbehörden" (Vgl. Telefonbenutzer und private Surfer unter pauschalem Kriminalitätsverdacht). So sah das früher auch die Staatssicherheit und hob in ihren Akten Kommunikationsmittel wie den C 64 "mit Druckeranschluß" ausdrücklich als Verdachtsmoment hervor. Hat sich das negative Erbe der DDR hier über die Hintertür eingeschlichen? 10 Jahre nach der deutschen Einheit verfügt Gesamtdeutschland auf jeden Fall über Überwachungstechnologien, von denen die Staaatssicherheit der DDR nur träumen konnte.

Quelle und Links : http://www.heise.de/tp/r4/artikel/8/8841/1.html
Titel: Re: Auferstanden aus Platinen
Beitrag von: Jürgen am 08 Oktober, 2009, 01:57
"10 Jahre nach der deutschen Einheit" ???
"50-150 DM" ???

Fehler in der Matrix???

Nein, denn Peter Mühlbauer veröffentlichte diesen Artikel am 03.10.2000
Those were the days my friends...
Titel: Vor 30 Jahren: Mit Visicalc bricht eine neue Ära an
Beitrag von: SiLæncer am 17 Oktober, 2009, 09:49
Heute vor 30 Jahren, am 17. Oktober 1979 wurde die erste Version der Tabellenkalkulation Visicalc ausgeliefert, Version 1.37 für den Apple ][. Mit Visicalc kam nach den Textverarbeitungsprogrammen die zweite Software-Gattung für Personal Computer auf den Markt, die Menschen ohne Programmierkenntnisse zum Umgang mit solch einem Computer ermutigten. Außerdem begründete Visicalc den Mythos von der Killeranwendung

Die Tabellenkalkulation Visicalc oder Calculedger, wie die Software ursprünglich hieß, basierte auf einer Idee des Programmierers Dan Bricklin. Bricklin hatte Anfang der 70er-Jahre als Programmierer am Massachusetts Institute of Technology am Project MAC gearbeitet und ging danach als Programmierer zu Digital Equipment (DEC) in die Gruppe, die 1973 das Redaktionssystem Typeset-10 entwickelte. Für den Typeset-10 programmierte Bricklin einen Konverter, der direkt die per Telex verschickten Typoskripte der Tonbänder der Watergate-Affäre in Zeitungssatz verwandelte. Später programmierte er die Textverarbeitung WPS-8, mit der Redakteure ihre Texte selber am Computer tippen sollten. "Mit der Zeitungsarbeit lernte ich bei DEC, wie normale Leute denken, also die, die eine Maschine unter großem Stress bedienen. Die keine Geeks sind und uns Programmierer für lustige Freaks halten."

Als DEC die Produktion verlagerte, blieb Bricklin in Massachusetts und schrieb sich an der Harvard Business School ein: "Als DEC zumachte, war ich umgeben von Programmierern, die um die 50 Jahre alt waren und partout keinen Job mehr fanden. So wollte ich nicht enden." An der Business School ließ Bricklin alle Schulaufgaben von einem DEC-Computer berechnen, doch ärgerte er sich, für jede Aufgabe ein Basic-Programm zu entwickeln. Der erste Entwurf seines Calculedgers war ein programmierbarer Taschenrechner im Stil des TI-59, erweitert um einen OCR-Leser für die Zahleneingabe, das Ganze auf einem Rollerball montiert, der die mathematischen Eingaben "abtasten" sollte, erweitert um einen Bildschirm, der in einem Helm am Kopf getragen wurde. Bricklin stellte seine Idee den Professoren vor, die ihn in Betriebswirtschaftslehre und Rechnungswesen unterrichteten. Sie zeigten ihm Bilder von Produktionsplanungstafeln, in denen für Stückzahlen, Arbeitskosten, Liefereingänge jeweils Reihen und Zellen vorgesehen waren, die sich in Abhängigkeiten von Einträgen veränderten.

(http://www.heise.de/imgs/18/4/2/4/8/3/7/referenzkarte-9222068d042e24b7.gif)

Nach einem Riesendiagramm, gezeichnet auf Kontoführungspapier, setzte sich Bricklin hin und schrieb: das Benutzerhandbuch über ein "magisches Papier" aus Reihen und Spalten, in dem alle Zellen dieses Geflechtes rechnen können. Sein "Papier" funktioniert heute noch, wie dieser Download zeigt, komplett mit einem kondensierten Benutzerhandbuch, der Referenzkarte, einer der ersten ihrer Art.

Weil Bricklin in Harvard ernsthaft studierte, musste ein anderer nach seinen Skizzen das Programm auf einem angemieteten Time-Sharing-System in den billigen Nachtstunden schreiben: Um 15:00 Uhr stand Bob Frankston auf, diskutierte die Entwicklung mit Bricklin bis in die Abendstunden, um dann nach einen Essen bis in den Morgen zu programmieren, wenn die Firmen wieder das Time-Sharing-System benutzen wollten und der Mietpreis drastisch anzog. Auf dem System selbst entstanden parallel eine Version für den Zilog Z80 und den Motorola 6502-Prozessor mit dem Apple ][ als Zielrechner. Dazu gab es einen Notations-Code, der den Z80-Code in zwei Varianten für Intels 8088 und 8086 übersetzte: die Zweimannfirma Software Arts (ursprünglich wollte man sich Kentucky Fried Fish nennen) wusste, dass ein IBM-PC erscheinen sollte, aber nicht, welchen Prozessor IBM einsetzen würde.

Die Distribution des Programms sollte ein "erfahrener Manager" übernehmen, der gerade die Business School in Harvard hinter sich gebracht hatte. Daniel Fylstra hatte wie Bricklin als Programmierer am MIT gearbeitet, war aber dann zur europäischen Weltraumbehörde ESA gewechselt und versauerte dort. Fylstra, der zum Gründungsteam der Zeitschrift Byte gehörte, entschloss sich zum Business-Studium, nachdem er ein Schach-Programm von Peter Jennings getestet hatte. Für Jennings Microchess gründete er die Firma Personal Software.

Fylstra nahm das nunmehr Visicalc genannte Programm von Bricklin und Frankston zur Distribution an, unter der Bedingung, dass die Lieferanten sich verpflichten, Versionen "für alle zukünftigen Prozessoren" zu entwickeln. Ein Apple ][, den Fylstar übrig hatte, sollte als Referenzsystem dienen. Als die erste stabile Beta-Version fertig war, zeigte Fylstra die Tabellenkalkulation dem damaligen Apple-Vorsitzenden Mike Markkula. Der fand Visicalc langweilig. Derweil schrieb Fylstras Trauzeuge Carl Helmer in der Byte eine glühende Rezension, die von Berechnungen des Sinus und Cosinus von Zellenwerten schwärmte, die Visicalc aber nicht beherrschte: die Vapor-Versprechen der Computermagazine begannen mit Visicalc. "Weil Helmers in seinem Artikel Dinge schrieb, die wir noch gar nicht implementiert hatten, mussten wir loslegen. Ich habe den Sommer 1979 damit verschwendet, dieses Zeug zu implementieren", erinnerte sich Dan Bricklin später.

Noch im Oktober konnte Personal Software 1293 Lizenzen für 100 US-Dollar verkaufen – der Preis war von Fylstra nach einer Umfrage unter Händlern festgesetzt worden. Bis zum Januar 1980 stiegen die Absatzzahlen, danach brachen sie völlig ein. Erst in der zweiten Hälfte des Jahres 1980 startete die Verkaufsrakete, nachdem Fylstra den Preis auf 250 Dollar erhöht hatte: 12.000 Lizenzen pro Monat wurden verkauft. Gegen Ende 1983 wurde die Lizenz Nummer 700.000 gefeiert: Die Programmierfirma Software Arts hatte da 130 Angestellte und einen Umsatz von 12 Millionen, der Distributor Personal Software kam auf 235 Angestellte und 60 Millionen Umsatz. Ein Drittel der Visicalc-Einnahmen wurde sofort in die Magazin-Werbung gesteckt, um Firmen wie Micropro oder Ashton-Tate zu schlagen: Visicalc, Wordstar und dBase II waren mit großem Abstand die Kassenschlager bis zum Jahre 1984. Personal Software nannte sich in Visicorp (später Paladin) um, gründete den Buchverlag Visipress und die erste eigenständige Support-Firma für Software, Visicare.

Doch die Erfolgsgeschichte dauerte nicht lange, Visicalc wurde von Sorcims Supercalc im Marktsegment der CP/M-Computer und von Lotus 1-2-3 im Marktsegment des IBM-PC bedrängt. Mitch Kapor, der zuvor für Visicorp die Programme Visitrend und Visiplot entwickelte, hatte sich bei der Entwicklung von 1-2-3 großzügig vom Vorbild Visicalc inspirieren lassen. Doch damit nicht genug: Visicorp verklagte Software Arts. Die Begründung, dass die Programmierer nicht schnell genug an der Version für den IBM-PC arbeiteten, war vorgeschoben. Visicorp wollte vor allem verhindern, dass Software Arts im PC-Sektor wie bei den anderen Visicalc-Versionen 50 Prozent der Einnahmen kassierte. Der langwierige Prozess endete damit, dass sich die Partner trennten, Software Arts von Lotus aufgekauft und Visicalc dort still beerdigt wurde. Dan Bricklin und Bob Frankston wurden mit ihrem Programm zwar reich, doch eben keine Multimillionäre. Dazu hätten sie das magische Konzept der rechnenden Reihen und Spalten patentieren lassen müssen, was nicht geschah. So konnten Lotus mit 1-2-3 und Microsoft mit Multiplan das Erbe antreten.

Im Interview mit dem Kolumnisten Bob Cringely für NerdTV zieht der "Erfinder" Dan Bricklin ein bemerkenswertes Resümee: "Wenn man zurückschaut und sieht, wie erfolgreich eine ganze Reihe von Leuten gewesen sind, dann ist es etwas traurig, dass wir nicht so erfolgreich waren. Aber wir sind echte Kinder der 60er und was wollten die, was wollten wir? Wir wollten die Welt verbessern und wir wollten unser Zeichen setzen, wie die Welt verbessert werden kann. Das haben wir getan. Nach diesen, unseren Maßstäben gemessen, waren wir sehr erfolgreich."

Quelle : www.heise.de
Titel: Nachlass von Computererfinder Zuse wird digitalisiert
Beitrag von: SiLæncer am 02 Dezember, 2009, 17:14
Wissenschaftler des Deutschen Museums in München und der Freien Universität Berlin haben mit der Erschließung und Digitalisierung des Nachlasses von Computer-Erfinder Konrad Zuse (1910-1995) begonnen.

Das Projekt läuft drei Jahre lang und wird von der Deutschen Forschungsgemeinschaft (DFG) im Rahmen des Programmes "Kulturelles Erbe" mit rund 400.000 Euro unterstützt. Die Dokumente, darunter noch nicht erschlossene, in Stenografie verfasste Tagebuch-Aufzeichnungen Zuses sowie die Schaltungen seiner frühen Rechenmaschinen, werden im Auftrag des Deutschen Museums digitalisiert und katalogisiert.

Diese Dokumente werden an der Freien Universität gesichtet, analysiert und systematisiert, teilten die Projektpartner mit. Die Ergebnisse, darunter für Laien verständliche Simulationen der Maschinen Zuses, werden im Internet für jedermann zugänglich gemacht.

Die Beteiligten erhoffen sich von der Erschließung des Nachlasses neue Erkenntnisse über die Persönlichkeit Zuses, der im kommenden Jahr 100 Jahre alt geworden wäre, und über die Funktionsweise seiner Rechenmaschinen.

"Konrad Zuse hat den ersten Computer in Berlin gebaut. Deshalb ist es großartig für die Stadt, dass der Nachlass hier in Berlin erschlossen wird und dass Berliner Wissenschaftler bei der Zusammenarbeit mit dem Deutschen Museum eine wichtige Rolle spielen", sagte Stefan Jähnichen, Präsident der Gesellschaft für Informatik. Für junge Leute sei dieses Projekt eine großartige Motivation, sich für ein Studium der Informatik zu entscheiden.

Quelle : http://winfuture.de
Titel: Als PLATO aus der Höhle trat: 20 Jahre Lotus Notes
Beitrag von: SiLæncer am 07 Dezember, 2009, 08:53
Heute vor 20 Jahren begann Lotus mit der Auslieferung der Groupware Lotus Notes in einer Version für DOS 3.1 und für OS/2. Der 7. Dezember war bewusst gewählt worden, wie Ray Ozzie, der "Kopf" hinter Notes und heutige Chief Software Architect von Microsoft, gegenüber heise online erklärte: "Five years to the day after the day that we celebrate as the founding of Iris Associates - December 7th, 1984, which is the date that Mitch Kapor and I signed the development agreement between Iris and Lotus." 5 Jahre hatte Ozzie mit einem kleinen Team in seiner Firma Iris Associates Notes entwickelt, fernab von Lotus Software, mit über 700 Programmierern damals die größte Softwarefirma der Welt. Vom Start der Auslieferung an dominierte Ozzies Notes den Groupware-Markt und ließ etablierte Konkurrenz-Produkte wie dem Coordinator von Fernando Flores keine Chance.

Ray Ozzie, der zuvor als Angestellter Nr. 29 bei Software Arts in der Entwicklung von Visicalc arbeitete und  TK!Solver implementierte, wechselte zu Lotus, als die Firma 1982 ihre Tabellenkalkulation 1-2-3 auf der Comdex vorstellte. Im Gepäck hatte er einen Plan für eine Software, wie Mitarbeiter einer Firma kommunizieren können, basierend auf seinen Erfahrungen mit dem Lernsystem PLATO (Programmed Logic for Automated Teaching Operations). Dieses System hatte der Ingenieur Donals Blitzer am Computer-based Education Research Laboratory (CERL) der Universität von Illinois entwickelt. Ray Ozzie erinnerte sich später an die Zeit, als er Zugriff auf PLATO bekam: "That was the real beginning of my programming experience. Eventual access to the machine as a systems programmer fed my habit. Every night at 10:00 p.m. the machine became available, and a small clique of people like me would work all night until our time was up at 6:00 a.m. We did this for years. It was great fun."

Ozzie zögerte seinen College-Abschluss extra lange hinaus und versäbelte Kurse, um weiter für das PLATO-System entwickeln zu können. Er blieb fünfeinhalb Jahre. Zum Schluss entwickelte er die Firmware für ein programmierbares PLATO-Terminal auf Basis des Z80-Prozessors. Zu dieser Zeit gab es Pläne, PLATO für Millionen von Schülern und Studenten zur Verfügung zu stellen. Der Hypertext-Erfinder Ted Nelson schlug enthusiasmiert vor, die USA im Zeitalter der computerbasierten Erziehung in "The New Republic of PLATO" umzubenennen, weil eine neue Generation von Menschen ohne TV-Missbildung einen neuen Staat entwickeln würde, eine Idee ganz im Sinne von Plato. Jedoch waren wohl nie mehr als 1300 Plasma-Terminals an den CDC-Rechner angeschlossen, auf dem PLATO lief. Geplant waren mindestens 1 Million Lernsysteme, doch die hohen Preise für die Terminals (4000 US-Doller) bremsten den Ausbau und die billige Z80-Entwicklung kam zu spät.

Bei Lotus angestellt, war Ray Ozzie zunächst für die Textverarbeitung des integrierten Softwarepaketes Symphony verantwortlich, später für das gesamte Programm. Als der sehr ambitionierte Nachfolger von 1-2-3 fertig war, ließ Lotus Chef Mitch Kapor seinem Entwickler freie Hand: "Mitch kept his word. I resurfaced the specs I had written before I started at Lotus and we talked about them. He suggested I work on the specs for a few months to get them to the point where I could describe how the product works, what its' good for, how people use it and identify how it would be marketed."

Das Resultat dieser Arbeit war der Bauplan für Notes und ein Vertrag mit Lotus, das die Software vermarkten sollte. Ozzies Firma Iris Associates stellte mit Tim Halvorsen und Len Kawell zwei erfahrene PLATO-Entwickler ein, die aus dem Kommunikations-Subsystem PLATO Group Notes ein PC-basiertes Produkt entwickeln sollen. Schon vor der eigentlichen Auslieferung im Dezember 1989 sorgte Lotus Notes für Schlagzeilen. Sheldon Laube, damals CIO von Price Waterhouse, kaufte 10.000 Lizenzen für sein Unternehmen.

Im Juli tourte der Notes-Evangelist David Tarrant durch deutsche Redaktionen und pries Notes als ultimatives Werkzeug, das Konferenzen völlig neu definiert. Das amerikanische Computermagazin Byte brachte einen Groupware-Schwerpunkt, in dem Notes als "Antwort des freien Westens" gefeiert wurde, in Reaktion auf "stalinistic software", die jeden Mitarbeiter zum willenlosen Handlanger der Bürokratchicks mache. Die besagte, angeblich grundüble Groupware war "The Coordinator", eine Entwicklung von Terry Winograd und Fernando Flores, Finanzminister in der chilenischen Regierung unter Salvador Allende. Dort hatte Flores mit Cybersyn ein Fernschreiber-Netzwerk installiert, das eigentlich Produktionsstände kontrollieren sollte. Bald wurde Cybersyn für andere Sachen benutzt. Heute geistert das Projekt als vergessenes sozialistisches Internet durch den Raum. Dieser Vergleich mag hinken, wie der Versuch der deutschen Zeitschrift Computerwoche, Notes als wesentlich leistungsfähigere Variante der Btx-Idee einzuordnen.

Bereits die erste Notes-Version bot die Verschlüsselung und Signierung von Dokumenten mit RSA-Public-Key-Verfahren sowie ein zentrales Directory, eine E-Mail-Anwendung, sogenannte Doc-Links als Hypertextverweise zwischen Dokumenten und eine Zugriffskontrolle über Access Control Lists (ACL). Mit der Version 2.0 in 1991 arbeitete Iris vor allem an einer größeren Skalierbarkeit. Zu diesem Zeitpunkt arbeiteten bei Iris gerade 12 Entwickler an Lotus Notes.

Um sich auf größere Unternehmen mit entsprechender IT-Infrastruktur zu konzentrieren, führte Lotus eine Minimalzahl von 200 Lizenzen ein, die man für damals 62.000 US-Dollar erwarb. Mit dem Erscheinen von Notes 3.0 im Jahre 1993 hatte Lotus 2.000 Kunden mit insgesamt 500.000 Notes-Anwendern, das Entwicklerteam hatte sich mittlerweile verdoppelt. Von Ozzie nicht vorausgesehen entwickelte sich Notes zu einem Anwendungsserver, der ein größeres Ökosystem von Business-Partnern mit der Entwicklung kundenspezifischer Lösungen beschäftigte. Nur wenige schafften es aber, aus dem Projektgeschäft zu unabhängigen Softwareherstellern (ISV) zu werden.

Der große Durchbruch von Notes kam aber erst, als IBM 1995 Lotus aufkaufte, um in den Besitz der Notes-Technik zu kommen. Das Unternehmen behielt weitgehende Selbstständigkeit und wurde vor allem mit den nötigen Ressourcen ausgestattet, einen größeren Markt zu erobern. Mit der Version 4.0 halbierten die damaligen Lotus-Chefs Mike Zisman und Jeff Papows den Lizenzpreis. Einen Kundenstamm von gerade einmal 1 Million Nutzern entwickelte IBM bis zu einer Größe von aktuell über 145 Millionen verkaufter Notes-Lizenzen, mehr als ein Viertel davon in den letzten fünf Jahren.

Spätestens mit dem Durchbruch des World Wide Web wurde Notes immer wieder tot gesagt -- und lebte umso länger. 1996 führte Lotus mit der Version 4.5 die neue Marke Domino für den Server ein, wohl vor allem, um dem Notes-Server einen frischeren Anstrich zu geben. Neben den eigenen Protokollen nutzen Client und Server zunehmend auch Internet-Protokolle. Den Anfang macht NNTP, dann folgente SMTP und HTTP, schließlich POP3, IMAP und LDAP. Notes und Domino behielten die Lauffähigkeit auf unterschiedlichen Betriebsystemen.

Der größte Marketing-Aufwand für Notes liegt mittlerweile 10 Jahre zurück. Anfang 1999 als super.human.software angekündigt, war Notes R5 erst drei Monate später erhältlich. Die ersten Versionen strotzten noch von Fehlern; die Kundschaft lernte mit R5 erst einmal ein paar Versionen abzuwarten. Das setzt sich bis heute fort. Bezeichnend der einzige Kommentar zur Notes-Historie, vom September dieses Jahres: "This is really good webpage to look at how Lotus Notes evoled from 1.0 release to 8.0 release. We are still using 6.5 and waiting for 8.0 to be rolled out."

Notes 6.5 ist heute sechs Jahre alt, Notes 8.0 immerhin schon zwei. Mit dieser Version wagte IBM einen großen Technologiesprung. Der Notes-Client basiert nun auf Eclipse, oder genauer auf Lotus Expeditor. Das ist der Teil von Eclipse, den IBM nicht gerne als Open Source publizieren möchte. Durch das Java-Framework erlangt Notes eine Offenheit, die der Software bislang stets gefehlt hatte. Statt in der eigenen Suppe zu schmoren, können Anwendungsentwickler nun in einer Oberfläche Programme und Widgets aus unterschiedlichen Quellen integrieren.

Ozzie erlebte den größten Erfolg seiner Schöpfung nur aus der Ferne. Er verließ Lotus 1997, um sein eigenes Unternehmen Groove Networks zu gründen. Dort implementierte er die gleiche Idee ein zweites Mal, diesmal dem Peer-to-Peer-Modell statt dem Client-Server-Modell folgend. Drei Anläufe machte das Unternehmen, schaffte aber nicht, sich auf dem Markt zu etablieren. 2005 schluckte Microsoft Groove Networks und Ozzie wurde von Bill Gates zu einem seiner Chief Technical Officers ernannt. Ein Jahr später kündigte Gates an, dass Ozzie ihn als Chief Software Architect beerben würde. Ein berühmtes Ozzie-Zitat können sich sowohl sein alter als auch sein neuer Arbeitgeber einrahmen: "Complexity kills. It sucks the life out of developers, it makes products difficult to plan, build and test, it introduces security challenges, and it causes end-user and administrator frustration."

Quelle : www.heise.de
Titel: DDR-Computer - Kilobytes gegen den Klassenfeind
Beitrag von: SiLæncer am 23 Dezember, 2009, 06:50
Mitte der Achtziger erklärte die SED-Führung die Digitalisierung der DDR zum Staatsziel. Sie duldete Raubkopierer, machte den Palast der Republik zur Daddelhalle und ließ Programme auf Schallplatten pressen. Die DDR-Nerds beschafften sich trotzdem Westcomputer - obwohl die so teuer waren wie ein Trabi.

Im Dezember 1986 erhält der Staatsratsvorsitzende der DDR die Nachricht von einem sozialistischen Wunder: "Mit herzlichen Kampfesgrüßen an den Genossen Erich Honecker" meldet das Kollektiv des VEB Mikroelektronik "Wilhelm Pieck" in Mühlhausen, dass soeben der zehntausendste Kleincomputer des Jahres zusammengeschraubt wurde - zu Ehren des XI. SED-Parteitags sowie als "Beitrag zur Stärkung des Sozialismus und Sicherung des Friedens".

Die begeisterte Meldung ist der Höhepunkt eines beispiellosen Kraftaktes: Nur wenige Jahre zuvor war die DDR absolutes Computer-Brachland. Und der Westen hatte alles dafür getan, dass das so blieb. Mitten im Kalten Krieg versuchte er mit allen Kräften zu verhindern, dass der Ostblock seine Technologie in die Finger bekommt.

Doch die Digitalisierung der Deutschen Demokratischen Republik steht, wenn auch reichlich spät, bei der Staatsführung Mitte der achtziger Jahre ganz oben auf der Agenda. Der Anschluss an den Westen muss geschafft werden, auch wenn das eben heißt, fast jeden Schaltkreis selbst zu entwickeln und zu bauen. Größte Hürde auf dem Weg zur neuen Technologie: der Materialmangel in der Republik. Um Computer zu fertigen, braucht die DDR Chips - aber die Halbleiterwerke in Erfurt und Frankfurt (Oder) stellen fast nur Schrott her, am Ende ihrer Produktionslinien funktionierten nur fünf von hundert Schaltkreisen.

Sechs Computer pro Tag aus der Ost-Produktion

Doch weil die Staatsführung unbedingt zeigen will, zu was das Land in der Lage ist, bekommt der VEB Mikroelektronik Unterstützung. Das Dresdner Kombinat Robotron arbeitet Anfang der achtziger Jahre ebenfalls an einem Rechner für die Masse. Und so werden auf der Leipziger Frühjahrsmesse 1984 gleich zwei Modelle präsentiert. Beide Rechner, der KC 85/1 und der KC 85/2, speichern ihre Daten auf normalen Audiokassetten und laufen auf einem Betriebssystem namens CAOS (Cassette Aided Operation System) - und keiner davon ist zu Westrechnern kompatibel.

1985 werden die ersten Exemplare ausgeliefert. In den Genuss der neuen Konsumgüter kommen jedoch nur "gesellschaftliche Bedarfsträger" wie Betriebe, Schulen, der Berliner Pionierpalast oder die Volksarmee. Und daran wird sich bis zum Ende der DDR wenig ändern. Denn eigentlich ist der VEB "Wilhelm Pieck" auf die Produktion von Taschenrechnern spezialisiert. Lediglich 150 Arbeiter sind anfangs in Mühlhausen für die Produktion der Kleincomputer zuständig, und die schaffen mit viel Schweiß nur sechs Geräte pro Tag. Während in der Bundesrepublik der C64 in mehr als einer Million Kinderzimmern steht, gelingt es der DDR-Planwirtschaft bis zur Wende nicht, das ganze Volk mit Computern zu versorgen. Auch der KC 85/4 und der KC compact, die letzten Errungenschaften der DDR, finden nur selten ihren Weg zu Privatkunden.

Trotzdem entsteht bis Ende der achtziger Jahre eine rege Computerszene in der Republik: In öffentlichen "Computerkabinetten" tüfteln Jugendliche an ihren ersten BASIC-Programmen. Sogar im Palast der Republik wird ein solches eröffnet. Die Zeitschrift "Funkamateur" bringt eine Bauanleitung für einen Computer heraus, der von Tausenden Hobbybastlern zu Hause zusammengelötet wird - aus einer Seifendose und einem Stück Luftpumpe wird ein "Spielhebel" (Joystick). Auch Robotron bietet einen Computerbausatz an, den Z1013. Per Postkarte wird die rohe Platine bestellt, ein halbes Jahr später liegt sie dann im Robotron-Laden in Erfurt zur Abholung bereit - jedoch ohne Netzteil und Gehäuse, dafür mit einer seltsamen Tastatur, auf der die Buchstaben alphabetisch angeordnet sind. Trotzdem bestellen Tausende DDR-Bürger den Rechner.

Selbst illegaler Import wird von der Staatsführung geduldet

Die SED kürt die Mikroelektronik zur Schlüsseltechnologie. "Zeitgewinn ist Kraftgewinn für den Sozialismus", heißt es, die wachsende Szene wird nach Kräften unterstützt: Die DDR bekommt einen Elektronikminister und eine Direktion für Computerliteratur und -Software beim Ministerium für Kultur. Die Führung fördert Computerclubs und mahnt den weiteren Bau von "Kleindatenverarbeitungsanlagen" an, "als Bestandteil des Kampfprogrammes der Parteiorganisation".

Selbst der illegale Import von Heimcomputern wird geduldet. Geschätzte 200.000 Commodores, Sinclairs und Ataris passieren bis zum Ende der DDR die innerdeutsche Grenze - meist im Gepäck von West-Omas. Auch in der Devisenschmiede "Intershop" gibt es die Traumrechner, allerdings nur für harte D-Mark. Und der Schwarzmarkt blüht: Ein komplett ausgestatteter C64 bringt bis zu 12.000 Ostmark, für einen Commodore Amiga oder Atari ST werden bis zu 40.000 Mark geboten - das ist mehr als ein gebrauchter Trabi damals kostet.

Die Computerkids in der Bundesrepublik interessiert die Lage im Osten wenig. Sie tauschen raubkopierte Spiele und greifen nach der Schule in "Raid over Moskow" sowjetische Raketenbasen an. Und sie wundern sich ein wenig über Anzeigen in ihren Spielezeitschriften: "Wer schenkt DDR-Bürger Commodore 64?", ist dort häufig zu lesen. Im Osten sind die Kleinanzeigenseiten der Zeitschriften gleichzeitig Computermarkt und Tauschbörse für Programme: "Suche Erfahrungsaustausch" lautet der Szenecode für den privaten Software-Handel.

Games-Aufrüstung im Palast der Republik

Besonders begehrt sind natürlich Games. Klone von Westklassikern wie "Boulderdash", "Donkey Kong" oder "Pac-Man" zum Beispiel, unter der Hand gibt es aber auch Baller- und Kriegsspiele. Die dürfen in der DDR nicht vertrieben werden - das wäre gegen die offizielle Weltanschauung. Alles andere ist ausdrücklich erlaubt. Während es im Westen seit 1984 per Gesetz verboten ist, Videospiele an öffentlichen Plätzen aufzustellen, rüstet die DDR sogar den Palast der Republik zur Spielhalle auf. Die Arcade-Maschine der Republik heißt "Poly-Play", produziert im VEB Polytechnik Karl-Marx-Stadt und entwickelt von einer Brigade der Freien Deutschen Jugend. Für 50 Pfennige darf man Autorennen fahren, gewaltlos Schmetterlinge fangen oder Slalom laufen. Die Genehmigung zum Aufstellen der Geräte erteilt der VEB Staatszirkus.

Millionenfach wandert auch Anwendersoftware von Hand zu Hand - und zwar kostenlos, unter Freunden oder auf "Soli-Basaren". Kaum jemand im Osten kauft die offiziellen Programme aus Mühlhausen oder von Robotron. Die Führung duldet das - schließlich sollen die "Computerfreunde" viel lernen. Bis ins letzte Dorf soll die Technologie vordringen.

Ein Vertrieb über Disketten wie im Westen ist jedoch unmöglich: Der KC 85/3 kann zwar Disketten lesen, doch die sind rar und unerschwinglich. Ein Zehnerpack kostet bis zu 600 Mark. Weil man an die KC-Rechner aber so gut wie alles anschließen konnte, sogar Plattenspieler, presst die DDR-Plattenfirma "Amiga" außer den Alben der Puhdys oder von Karat bald auch Software auf Schallplatten. Im Radio werden Programme übertragen, die später, auf Kassette aufgenommen, in die Rechner eingelesen werden können.

"Computersport" als Wehrsportart

Es gibt Programmierkurse in Schulen und Computerkabinetten. Der "Computersport" wird gar zur offiziellen Wehrsportart. Doch im November 1989 ist plötzlich alles vorbei. Mit einem Schlag will von Berlin bis Zwickau niemand mehr etwas wissen von den volkseigenen Rechnern. Den letzten landesweiten Programmierwettbewerb der DDR gewinnt ein Zwölfjähriger - mit seinem Commodore 64. Das Werk in Mühlhausen wird geschlossen. Die Computerbauer der Republik verlieren ihren Job, ihr Wissen ist wertlos geworden.

Die Mutigsten unter ihnen machen sich mit Computerläden selbständig. Dort stehen jetzt die begehrten Westcomputer, die meisten KC-Modelle landen auf Flohmärkten oder auf dem Schrottplatz. Doch die Geschichte des DDR-Heimcomputers ist damit nicht vorbei. Auch heute noch, mehr als 20 Jahre nach dem Mauerfall, trifft sich der 1991 gegründete "KC-Club" jährlich in Schönwalde bei Berlin - und das ist kein Treffen nur von Nostalgikern, sondern auch von Tüftlern, die ihre Ostrechner und dessen Software immer weiter entwickeln.

Ansonsten hat der DDR-Heimcomputer im Internet die Zeiten überlebt. Virtuelle Museen zeigen dort alte Schaltpläne und Handbücher. Mittels eines Emulators können heute sogar noch die alten Games gespielt werden - alte Spiele wie "Entenjagd" von den Mikroelektronikern aus Mühlhausen etwa, eine "Boulderdash"-Version von 1988 und sogar Nach-Wende-Spiele wie "Perestroika" (1991) aus Chemnitz. "Versuchen Sie, mit dem DEMOKRAT von der linken oberen zur rechten unteren Ecke zu gelangen", heißt es da in der Anleitung, dabei "ist Ihnen der BÜROKRAT nicht wohlgesonnen. Wenn er Sie zu sehr nervt, dann ballern Sie ihn einfach ab (Shift & Cursortaste)."

Quelle : http://einestages.spiegel.de
Titel: Vor 30 Jahren: IEEE 802 nimmt Arbeit auf
Beitrag von: SiLæncer am 18 März, 2010, 14:13
Mit einer kleinen Vortragsreihe zur Geschichte der Local und Wide Area Networks (LAN/WAN) hat die IEEE-Gruppe 802 im US-amerikanischen Orlando ihren Geburtstag gefeiert: Am 13. März 1980 akzeptierte das IEEE Standards Project die 802. Arbeitsgruppe und ihren Vorschlag zur Vereinheitlichung der Verbindungstechnik. An der Geburtstagsfeier nahm selbst der Ethernet-Pionier Bob Metcalfe teil, der vor 30 Jahren ein Kritiker der Aufsplitterung in viele IEEE-Teilprojekte war.

Vom Körpernetzwerk für Nanosender (IEEE 802.15.6), die als Pillen geschluckt werden bis zum Delay Tolerant Network für die Weltraumkommunikation umfasst die Arbeit der IEEE heute ein breites Spektrum an Kommunikationsmöglichkeiten. Die Arbeit der einflussreichen Gruppe begann 1979 mit dem Project Authorization Request Nr. 802, als Ingenieure von Tektronix, IBM, DEC und Intel überlegten, dass die Arbeit am General Purpose Interface Bus (GPIB alias IEEE 488 beziehungsweise IEC 625) auf weiter reichende Kommunikationssysteme übertragen werden könnte. Am 25. August 1979 reichten sie den offiziellen Antrag für ihr neues Standardisierungs-Projekt  zur LAN/MAN-Kommunikation ein:

"The proposed standard will apply to Data Processing devices which need to communicate with each other at a moderate data rate (1-20 Mbit/sec) and within a local area (physical data path up to 4 km). The purpose of the proposed standard is to provide compatibility between devices of different manufacture so that the hardware and software customization necessary for effective data communication is minimized or eliminated. The standard will also encompass the metropolitan area network suitable for intracity data communications with a normal data path length of 50 km."

Dieser Antrag wurde vor 30 Jahren offiziell akzeptiert und IEEE 802 konnte mit dem Tektronix-Ingenieur Maris Graube als Chairman die Arbeit aufnehmen. Graube bemühte sich von Anfang an, eine logische Unterteilung in Arbeitsgruppen vorzunehmen, um möglichst wenige Auseinandersetzungen unterschiedlicher "Glaubensrichtungen" zu produzieren. Doch gleich einer der ersten Standards, 802.3 für Ethernet, führte zu heftigen Debatten. Bob Metcalfe, der damals mit seiner Firma 3Com eine der ersten Firmen gegründet hatte, die sich ausschließlich mit Netzwerktechnik beschäftigte, mochte die Lobbyarbeit von Konzernen wie der IBM nicht. In der Rückschau erinnert Metcalfe an Standards wie Token Bus von General Motors und Token Ring von IBM, die eigens für die Konzerne entwickelt wurden und gegen das von 3Com propagierte Ethernet standen.

Tatsächlich entwickelte sich gerade Ethernet (802.3) zu einem der erfolgreichsten Standards in der IT, ebenso wie 802.11 (Wireless LAN) und 802.15.1 (Bluetooth), ohne die die heutigen Smartphones kaum smart genannt werden können. Erwähnt werden sollte auch 802.14, das Kabelfernsehen, dass sich zum größen WAN seiner Art entwickelt hat. "Wann immer davon die Rede ist, dass der Computer ein Kommunikationswerkzeug ist, sollte nicht vergessen werden, dass IEEE 802 die Grundlagen für die Kommunikation entwickelte", erklärt der derzeitige Chairman Paul Nikolich die Geschichte. "IEEE 802 war genau betrachtet eines der ersten wirklich herstellerunabhängigen Gremien in einem Moment, der in dieser Form in den 70er Jahren einfach nicht möglich gewesen wäre. Da glaubte jeder noch, er könne sein eigenes Süppchen kochen."

Quelle : www.heise.de
Titel: Sony läutet Ende der 3,5-Zoll-Diskette ein
Beitrag von: SiLæncer am 26 April, 2010, 11:15
Im März 2011 stellt das Unternehmen den Verkauf des Speichermediums in Japan ein. Dort bedient es rund 70 Prozent des Markts. In den meisten Ländern außerhalb Japans bietet Sony schon jetzt keine 3,5-Zoll-Disketten mehr an.

Sony wird im März 2011 den Vertrieb von 3,5-Zoll-Disketten in Japan einstellen. Das Land ist einer der letzten Märkte, in denen der Elektronikkonzern das veraltete Speichermedium anbietet. Sonys Marktanteil liegt nach Angaben der Zeitung Mainichi Daily dort bei 70 Prozent.

Über einen Zeitraum von fast drei Jahrzenten war die Diskette ein allgegenwärtiges Medium, um Dateien zu speichern oder von einem Computer auf einen anderen zu übertragen. Sony führte 1981 als einer der ersten Anbieter die 3,5-Zoll-Diskette ein, als Ersatz für das bis dahin gebräuchliche 5,25-Zoll-Format.

Mit der zunehmenden Größe von Dateien und Programmen wurde die Diskette von günstigen und größeren Speichermedien wie Zip, CDs, DVDs und USB-Sticks verdrängt. Sonys Verkaufszahlen in Japan sanken von 47 Millionen Stück im Geschäftsjahr 2002 auf 12 Millionen im Geschäftsjahr 2009, was einem Rückgang um 75 Prozent entspricht. Die meisten anderen Hersteller haben ihre Produktion schon vor einiger Zeit eingestellt. Auch Sony bietet das Speichermedium in den meisten Ländern außerhalb Japans schon länger nicht mehr an.

Das Aus der Diskette zeichnet sich schon seit Jahren ab. Als erster Computerhersteller verzichtete Apple 1998 darauf, seine Produkte mit Floppy-Laufwerken auszustatten. Dell folgte 2003 Apples Beispiel und bot einen Dimension-Desktop in der Standardkonfiguration erstmals ohne Disketten-Laufwerk an.

Quelle : www.zdnet.de
Titel: Der Loveletter-Virus wird zehn Jahre alt
Beitrag von: SiLæncer am 05 Mai, 2010, 16:46
Einer der wichtigsten Schadcode-Ausbrüche der Computergeschichte feiert sein zehntes Jubiläum.

Am 04.05.2000 schrieb ein kleines vbs-Script aus den Philippinen mit großer Wirkung Geschichte. Der so genannte Loveletter (http://en.wikipedia.org/wiki/ILOVEYOU), auch bekannt als ILOVEYOU oder Lovebug breitete sich wie ein Lauffeuer aus. Menschen bekamen eine E-Mail mit dem Anhang LOVE-LETTER-FOR-YOU-TXT-vbs.

Aus Neugier öffneten viele das Script, weil es meist von Freunden oder Bekannten kam. Der Wurm machte sich nämlich das Adressbuch von Windows/Outlook zu Nutze. Wenn der Anhang geöffnet wurde, verschickte sich der Schadcode an alle sich darin befindlichen Kontakte weiter.
Mehr als 50 Millionen Rechner konnte der Schädling infizieren. Loveletter suchte außerdem alle Dateien mit den Erweiterungen vbs, vbe, js, jse, css, wsh, sct, doc und hta und ersetzte diese mit einer Kopie von seinem Code. MP3- und MP2-Dateien wurden versteckt und durch eine Loveletter-Ausgabe mit Anhang vbs ersetzt.

Quelle : www.tecchannel.de
Titel: 15 Jahre PHP
Beitrag von: SiLæncer am 08 Juni, 2010, 12:55
Am 8. Juni 1995, heute vor 15 Jahren, hob Rasmus Lerdorf mit einem Posting in der Usenet-Newsgruppe comp.infosystems.www.authoring.cgi PHP aus der Taufe. Die "Personal Home Page Tools", die er seinerzeit in der Version 1.0 verkündete, waren ursprünglich als Werkzeug gedacht, um Bewerbungsanfragen auf einer Website zu verwalten. Sie als Open Source zur Verfügung zu stellen (damals noch unter der GPL, seit Version 4.0 unter der PHP Licence) sorgte dafür, dass Lerdorfs in C geschriebener PHP-Software einem breiten Publikum bekannt wurde.

Mit dem heutigen PHP hat die damalige Version 1.0 nicht mehr viel gemein. Für "ernsthafte" Anwendungen war zuerst PHP/FI (FI steht für "Form Interpreter") geeignet, die Version 2.0, die im November 1997 erschien. Doch nur hart gesottene Entwickler oder solche, die schon lange dabei waren, beschäftigten sich mit der Skriptsprache, die es Programmierern ermöglichte, mehr Dynamik in ihre sonst statischen HTML-Seiten zu bringen.

Den großen Sprung schaffte PHP mit der Version 3.0, die am 6. Juni 1998 veröffentlicht wurde. Mit ihr wurde die Entwicklung von einer Person auf mehrere Personen verteilt. Zeev Suraski und Andi Gutmans, die Gründer der Firma Zend Technologies, hatten für diese Version die Basis der Sprache neu geschrieben, wodurch sie schneller und moderner wurde.

Es sollte noch einige Zeit dauern, bis moderne Sprachkonstrukte wie Objektorientierung Einzug in die Sprache hielten – mit der Veröffentlichung der Version 4.0 am 22. Mai 2000 bekam PHP nicht nur die Objektorientierung, sondern auch mit der Zend Engine eine Mischung aus Interpreter und Compiler, der in zwei Schritten den Programmcode interpretiert, kompiliert und über einen Bytecode-ähnlichen Mechanismus die so entstandenen Opcodes ausführt. Dadurch wurde die Performance der Sprache deutlich schneller.

PHP versuchte allerdings nicht nur das Web zu erobern, mit dem Release von 4.30 im Dezember 2002 hielt auch CLI (Common Language Infrastructure) Einzug in die Sprache. PHP ließ sich nun ohne lästigen CGI-Overhead auf der Kommandozeile ausführen, Parameter ließen sich bequem parsen und vieles andere mehr. Entwickler, die bisher zusätzlich Shell-Skripte zum Beispiel für das Deployment schreiben mussten, konnten das jetzt auch mit PHP tun und sich so den Zugriff auf bereits vorhandene Komponenten erleichtern.

Als bedeutendsten Wendepunkt der Sprache dürfte die Veröffentlichung von PHP 5.0 im Jahr 2004 gelten. Die neue Zend Engine II erhielt ein aufgefrischtes Objektmodell und in den Folgeversionen, insbesondere mit Version 5.3 im Juni 2009, viele Erweiterungen nebst moderner Sprachkonstrukte wie Namespaces, Closures, Late Static Bindings und nativen PHP-Archiven.

Die Entwicklung an PHP 6.0 stand in den vergangenen zwei Jahren immer wieder auf dem Programm. Es  sollte eine vollständige Unicode-Unterstützung bieten, mit der sich selbst Methodennamen in anderen Sprachen wie Chinesisch schreiben lassen sollen. Die Entwicklung daran hakte jedoch immer wieder, sodass einige Funktionen dafür in die Version 5.3 "zurück wanderten". Welch großen Wurf Version 6 bringen wird und ob sie wie beabsichtigt das "Unicode-Release" wird, lassen die Entwickler noch offen.

Quelle : www.heise.de
Titel: Originalgetreue Nachbildung der Z3 fertiggestellt
Beitrag von: SiLæncer am 26 Juni, 2010, 17:19
Ab heute und zunächst nur einige Tage ist der noch nicht vollkommen fertiggestellte Nachbau des Rechners Zuse Z3 im Konrad-Zuse-Museum in Hünfeld zu bewundern. Horst Zuse, der Sohn des Computerpioniers und Erbauers der Maschine, arbeitet als Privatdozent und Informatik-Fachmann in Berlin und hat vor zweieinhalb Jahren beschlossen, den Z3 zum 100. Geburtstag seines Vaters nachzubauen.
 
Konrad Zuse hatte seinen programmgesteuerten Rechner Z3 1941 in Berlin präsentiert, dieser war aber 1943 in den Kriegswirren bei einem Bombenangriff zerstört worden. "Es existieren zwar bereits zwei Nachbauten der Maschine, doch dies ist die erste, die exakt dem historischen Vorbild gleicht", sagte Horst Zuse (64), Sohn des Computer-Pioniers Konrad Zuse, der vor wenigen Tagen 100 Jahre alt geworden wäre. In Hünfeld lebte der Tüftler knapp 40 Jahre und starb dort 1995 im Alter von 85 Jahren.

Horst Zuse werkelte seit einem dreiviertel Jahr mehrere Stunden täglich an dem Nachbau . Der ist so groß wie drei Kleiderschränke, doch der Teufel steckt im Detail: "Bei einigen Schaltungen hat es Überraschungen gegeben. Ich bin mir sicher, dass es die auch bei meinem Vater gegeben hat. Die stehen aber leider in keinem Bauplan drin. Ich habe beim Nachbau wahnsinnig viel gelernt", sagte Zuse Junior.
 
Ein vereinfachter Nachbau des Z3 steht im Deutschen Museum in München. Er ist noch von Konrad Zuse selbst hergestellt worden. Im Unterschied zum Original hat dieser Nachbau nur zwei statt drei Speicherschränke. Der in Hünfeld vorgestellte Nachbau verfügt darüber hinaus über ein Eingabepult, ein Rechenwerk sowie einen Lochstreifenleser, mit dem das Programm eingelesen wird und ist ein Gemeinschaftsprojekt, das von mehr als einem halben Dutzend Firmen unterstützt wurde. Denn die antiquierten Bauteile des Originals gibt es heute nicht mehr. "Es geht aber auch mit modernen Telefonrelais", erklärte Zuse, "die funktionieren genauso, sind nur kleiner und technisch zuverlässiger." Ein Tischler habe ihm die nötigen Schränke gebaut. Der gesamte Nachbau habe in etwa so viel wie eine gut ausgestattete Limousine gekostet.
 
Vom 23. September bis 9. Januar 2011 soll der Nachbau in Berlin ausgestellt werden, wo Konrad Zuse 1910 geboren wurde. Danach geht der wuchtige Apparat auf Tour. Viele Museen und Institutionen sind an der Leihgabe interessiert.

Quelle : www.heise.de
Titel: 15 Jahre ".mp3"
Beitrag von: SiLæncer am 13 Juli, 2010, 15:55
MP3 feiert am (morgigen) Mittwoch seinen 15. Namenstag: Das meistverbreitete Format für digitale Musik wurde bereits 1992 standardisiert, erhielt aber erst 1995 seine heutige Bezeichnung. Karlheinz Brandenburg gilt als Vater des MP3-Formats, als "Mutter" wird oft Suzanne Vega genannt, die von ihrem Mutterglück erst im Jahr 2000 von einer Freundin erfuhr. Die Forscher hatten den Algorithmus anhand von Vegas A-Cappella-Song "Tom's Diner" optimiert.

Der Name war das Ergebnis einer internen Befragung von Wissenschaftlern am Fraunhofer-Institut für Integrierte Schaltungen (IIS) in Erlangen. Gesucht wurde eine griffige Dateiendung für das Audiokompressionsverfahren mit der technischen Bezeichnung ISO Standard IS 11172-3 "MPEG Audio Layer 3". Am Freitag, den 14 Juli 1995, wurde das Ergebnis per Mail bekannt gegeben: "Nach der überwältigenden Meinung aller Befragter: Die Endung für ISO MPEG Audio Layer 3 ist .mp3. Das heißt wir sollten für kommende WWW-Seiten, Shareware, Demos etc. darauf achten, dass keine .bit-Endungen mehr rausgehen. Es hat einen Grund, glaubt mir :-)", schrieb Institutsmitarbeiter Jürgen Zeller seinen Kollegen.

Die Idee der maßgeblich am IIS entwickelten Kompressionstechnik war es, nur diejenigen Audiosignale zu speichern, die auch vom menschlichen Ohr erfasst werden können. Damit konnte der Speicherbedarf für digitalisierte Musik drastisch reduziert werden. Das Format mit der Dateiendung ".mp3" krempelte die Musikindustrie um. Auf einen Schlag ermöglichte es den weltweiten Musiktausch über das Internet – die Musikindustrie selbst hatte mit der Einführung der digital arbeitenden Audio-CD hierfür den Grundstein gelegt, doch erst die Kompression auf etwa ein Zehntel der ursprünglichen Dateigröße machte den massenhaften Transfer schon in den früheren Jahren des Internets realistisch. Die Standardisierung läutete zudem die Ära tragbarer Musikspieler ein, die mit der Einführung des "MPMAN" von Saehan Information Systems in Korea und des "Rio" von Diamond Multimedia in den USA begann.

Quelle : www.heise.de
Titel: Microsofts Internet Explorer 1.0 wird 15 Jahre alt
Beitrag von: SiLæncer am 16 August, 2010, 09:49
Microsofts Internet Explorer erschien in diesem Monat vor 15 Jahren in der ersten Version. Im August 1995 wurde der Browser als Teil eines kostenpflichtigen Erweiterungspakets für Windows 95 erstmals veröffentlicht.

Die Entwicklung des Internet Explorer 1.0 geht auf den Kauf einer Lizenz von der Firma Spyglass Inc. für den Quellcode des ersten grafischen Web-Browsers Mosaic zurück. Die erste Version des Microsoft-Browsers benötigte gut ein Megabyte Speicherplatz und bot nur einen sehr beschränkten Funktionsumfang.

So war die Software weder in der Lage, Newsgroups anzuzeigen oder dynamische Inhalte wie Videos oder Musikdateien wiederzugeben, noch überhaupt Grafiken darzustellen. Der IE 1 war Teil des Windows 95 Plus! Pakets, das damals für 49 US-Dollar auf den Markt kam.

Das Programm sollte den Kunden "schnellen und einfachen Zugriff auf das Microsoft Network (MSN), das Internet und Internet Mail geben", hieß es damals während der Installation. Später wurde der Internet Explorer Teil des Internetverbindungsassistenten.

Während Microsoft inzwischen ungefähr alle zwei Jahre eine neue Version seines Browsers veröffentlicht, dauerte es bis zur Einführung des Internet Explorer 2.0 nur knapp vier Monate. Schon im November 1995 erschien die neue Ausgabe, die ab April 1996 auch für Windows NT, 3.1 und Macintosh erhältlich war.

Als der Internet Explorer auf den Markt kam, waren America Online (AOL) und Netscape die dominierenden Kräfte. Seine Einführung löste letztlich den so genannten Browser-Krieg aus, weil er den Nutzern eine gewisse Unabhängigkeit ermöglichte, während AOL nur eine beschränkte Version des Webs zugänglich machte.

Microsoft will die Veröffentlichung der ersten Version des Internet Explorer offenbar nicht groß feiern. In der letzten Woche wies man lediglich als Teil eines Eintrags im Weblog des Entwickler-Teams (http://windowsteamblog.com/ie/b/ie/archive/2010/08/11/internet-explorer-turns-15-and-we-deliver-a-14-year-old-t-shirt.aspx) auf das Jubiläum hin.

Quelle : http://winfuture.de
Titel: Windows 95 ist heute vor 15 Jahren gestartet
Beitrag von: SiLæncer am 24 August, 2010, 13:29
Windows 95, das erste 32-Bit-Betriebssystem für den Heimanwender von Microsoft, wird heute 15 Jahre als. Am 24. August 1995 brachte das Unternehmen das Produkt in den Handel.


Microsoft verabschiedete sich dabei vom Modell der Vorgänger, die eher ein grafischer Aufsatz auf das Betriebssystem MS-DOS waren. Erstmals setzte der Hersteller auf eine komplette GUI-Steuerung für den PC und legte damit den Grundstein für eine lang anhaltende Dominanz auf dem Markt für Betriebssysteme.

Zum Verkaufsstart öffneten viele Computer-Geschäfte in den USA bereits um 0.00 Uhr ihre Türen für die vielen wartenden Kunden und die ersten Windows-95-Disketten und -CDs gingen über den Ladentisch. Schon nach kurzer Zeit stellte Microsoft mit seinem neuen Betriebssystem Verkaufsrekorde auf.

Dem Unternehmen kamen dabei massive Fehler bei der Konkurrenz zugute. So ruhte man sich bei Commodore im Grunde auf den Erfolgen mit dem Amiga 500 aus. Apple, bei dem die grafische Benutzeroberfläche schon über zehn Jahre zuvor das Maß aller Dinge war, wurde von seinem damaligen Management zielsicher in die Sackgasse manövriert.

Gegenüber den 16-Bit-Vorgängern hatte sich aber auch unter der neu gestalteten grafischen Oberfläche viel getan. So wurde Windows 95 mit präemptivem Multitasking ausgestattet. Allerdings hatte dieses noch seine Schwächen und Programme konnten noch durch eine hohe CPU-Nutzung das gesamte System blockieren. Hinzu kam auch Plug and Play, was die Installation neuer Hardware deutlich vereinfachte.

Bis Ende 1997 wurden vier weiterentwickelte Varianten des Betriebssystems veröffentlicht. Diese brachten unter anderem das FAT32-Dateisystem, Unterstützung der USB-Schnittstelle und den Internet Explorer 4 mit. Am 31. Dezember 2001 stellte Microsoft dann den Support für das Betriebssystem ein.

Quelle : http://winfuture.de
Titel: 20 Jahre WLAN-Standard IEEE 802.11
Beitrag von: SiLæncer am 27 September, 2010, 15:21
Das genaue Datum ist nicht mehr bekannt, doch im September 1990 begann eine Expertengruppe des IEEE  an einem Standard für drahtlose Netzwerke mit einem Durchsatz von 1 MBit/s bei 2,4 GHz zu arbeiten. Die schnelle Akzeptanz des Standards, seine Propagierung durch die WiFi-Allianz  und die Nutzung eines lizenzfreien Frequenzspektrums sorgten für rasante Verbreitung der Technik. Von sperrigen Adapterkarten, die einen ganzen ISA-Steckplatz im PC benötigten, ging es schnell zu PCMCIA-Karten für Laptops bis hin zu Single-Chip-Adaptern für Netbooks, Tablet-PCs und Smartphones.

In seinem 1937 erschienenen Roman "Der Sternenmacher" schildert Olaf Stapledon die "Anderen", eine Menschheit in ferner Zukunft, die weder Musik noch Zeitung kennt. Nachrichten, Sportmeldungen, Lotterieergebnisse und erotische Bilder kommen individuell sortiert über einen Funkempfänger, den jedermann in seiner Hosentasche trägt. Dieser Empfänger ist an ein umfassendes Netz angeschlossen, das von allen Gebäuden gesendet wird. Ob Stapledon WLAN oder ein Mobilfunknetz beschrieb, darüber streitet sich die Science-Fiction-Gemeinde, doch die Möglichkeit, jederzeit den eigenen Newsfeed abzurufen oder Bilder, die Stapledon als "Sexual Broadcasting" umschrieb, ist heute längst Realität geworden.

Die Selbstverständlichkeit, mit der iPads und Smartphones sich ins WLAN einbuchen, war eine weit entfernte Vision, als man vor 20 Jahren mit der Arbeit am Funkstandard für Datennetze begann. Damals dachte man daran, die unzuverlässige Infrarotübertragung (IrDA) zu ersetzen, mit denen Computer über kurze Entfernung Daten austauschten. Ein historischer Rückblick im Powerpoint-Format zeigt, wie klein die Arbeitsgruppe zu Beginn war – und welche Papierberge auf dem mühseligen Weg zum Industriestandard aufgehäuft wurden.

10 Jahre nach dem Beginn der Arbeit am Ethernet-Standard IEEE 802.3 für verkabelte LANs war man soweit, sich mit der Funktechnik zu beschäftigen. 1997 wurde 802.11 verabschiedet und in kurzer Folge erheblich verbessert. 1998 war 802.11a (54 MBit/s im 5-GHz-Band) fertig, 1999 802.11b (11 MBit/s bei 2,4 GHz). Der aktuelle Standard ist 802.11n, das im vergangenen Jahr fertig wurde. Aufrüststecker für das schnelle Funknetz sind inzwischen so klein wie ein Daumennagel. Die nächsten Standarderweiterungen sind bereits im Anmarsch: Mit 5 GBit/s und mehr (802.11ad) sollen WLANs die Anforderungen des Multimedia-Zeitalters (über)erfüllen, außerdem ist die mobile Vernetzung von Fahrzeugen mit 802.11p ein wichtiger Punkt auf der IEEE-Agenda.

Quelle : www.heise.de
Titel: Free Software Foundation - 25 Jahre "Extremisten"
Beitrag von: SiLæncer am 05 Oktober, 2010, 10:22
Die ersten einheitlichen Lizenzen zum Schutz freier Software sind ihr zu verdanken und die Idee, dass Anwender mit ihrem Computer machen können sollen, was sie wollen. Seit 25 Jahren gibt es die Free Software Foundation. Doch auch unter Verfechtern freier Software hat sie nicht nur Freunde.

Richard Stallman gründete die Free Software Foundation  am 4. Oktober 1985, um die Entwicklung des damals neuen GNU-Projekts (GNUs not Unix) finanziell zu fördern. Die Organisation veröffentlichte im Laufe der Zeit drei Lizenzen, um freie Software zu schützen: die GPL, die in der Version 3 im Juni 2007 veröffentlicht wurde. Daneben stammen auch die LGPL (GNU Lesser General Public License) und die AGPL (GNU Affero General Public License) von der FSF. Außerdem hat die FSF die GNU Free Documentation License (GFDL) für Dokumentationen erarbeitet. Die Lizenzen sind auch unter dem Namen Copyleft  bekannt, das die uneingeschränkte Nutzung und Weitergabe sowie Veränderung eines Urwerks garantiert. Copyleft nutzt das Urheberrecht, um die Vereinnahmung durch unfreie Software zu verhindern.

Gegenwärtig konzentriert sich die FSF auf Kampagnen, um dem Benutzer Freiheiten bei der Verwendung seines Computers zu ermöglichen. Neben der Unterstützung für freie Software wandte sich die FSF auch gegen Digital Rights Management (DRM), was sie als "Zerstörung der digitalen Zukunft" bezeichnet. Außerdem kämpft die FSF gegen Softwarepatente.

Streitbarer Präsident

Richard Stallman ist seit seiner Gründung der streitbare Präsident der gemeinnützigen Organisation. Zu den Mitgliedern der amerikanischen FSF gehören unter anderem Hal Abelson und Gerald Jay Sussman, Mathematikprofessoren am Massachusetts Institute of Technology und Bradley Kuhn. Ehemaliges Mitglied ist der Entwickler Miguel de Icaza, der unter anderem den Midnight Commander für Linux entwickelt hat und gegenwärtig das Mono-Projekt leitet.

Stallman und die FSF ecken mit ihrer rigiden Haltung immer wieder an - auch in der Open-Source-Gemeinschaft. Linus Torvalds sagte kürzlich, er wolle nicht mit freier Software in Verbindung gebracht werden - in der Organisation seien "Extremisten".


Der Ableger Free Software Foundation Europe  und ihr Präsident Karsten Gerloff beschäftigen sich seit März 2001 mit den Belangen der Organisation in Europa und erhielten im Jahre 2010 die Theodor-Heuss-Medaille für ihr vorbildliches demokratisches Verhalten. Die Free Software Foundation Europe ist unter anderem Mitorganisator der jährlichen Demonstration "Freiheit statt Angst".

Das von der FSF getragene GNU-Projekt ist noch etwas älter und feiert 2008 seinen 25. Geburtstag.

Quelle : www.golem.de
Titel: 25 Jahre Windows - Meilensteine der Entwicklung
Beitrag von: SiLæncer am 20 November, 2010, 13:44
Microsoft feiert in diesen Tagen den 25. Geburtstag von Windows, denn am 20. November 1985 kam mit Windows 1.0 die erste Version des heute am weitesten verbreiteten und bisher kommerziell erfolgreichsten Betriebssystems der Welt auf den Markt.

Alles begann mit der Vorstellung von Windows 1.0 am 10. November 1983, doch erst zwei Jahre später kam das Produkt als grafische Oberfläche für MSDOS auf den Markt.

Windows 1.0

Windows 1.0 wurde bei seiner Vorstellung 1983 anlässlich der Computermesse COMDEX noch als "Interface Manager" für DOS präsentiert worden. Erst einige Zeit später erhielt die Software von Microsofts Marketing-Strategen den Namen "Windows". Hintergrund war, dass die hauseigenen Entwickler stets von Fenstern - also "Windows" -sprachen, wenn es um den Umgang mit den einzelnen Teilen der Oberfläche ging.

Der Einführungspreis von Windows 1.0 lag 1985 bei gerade einmal 99 US-Dollar, was im Vergleich zu den heute oft sehr teuren Premium-Varianten von Windows und den damals üblichen Technikpreisen recht wenig scheint. Letztlich wurde Windows 1.0 jedoch kein großer kommerzieller Erfolg, denn die Zahl der verfügbaren Anwendungen war sehr gering. Schon damals setzte Microsoft auf einen Vertrieb, der nicht nur über Händler, sondern auch über einen direkten Kontakt zu den Hardware-Herstellern lief.

Die Bedienung von Windows 1.0 erfolgte über einen recht simplen Datei-Manager, über den die ausführbaren Dateien der einzelnen Programme ausgewählt und gestartet werden konnten. Der Anwender konnte sich dann mehrere Dokumente in verschiedenen Fenstern anzeigen lassen. Erstmals hielt eine Art Taskleiste Einzug, bei der die verschedienen geöffneten Programm am unteren Bildschirmrand anhand von Symbolen ausgewählt werden konnten. Die Bedienung erfolgte mit Maus und Tastatur.

Die am 21. November 1985 vorgestellte erste tatsächlich verfügbare Version von Windows trug die Nummer 1.01. Seit Mai 1986 waren erstmals Varianten in einigen europäischen Sprachen erhältlich, darunter auch eine deutsche Ausgabe, die für rund 340 D-Mark angeboten wurde. Im Laufe der Zeit erhielt Windows 1.0 einige Updates, die allerdings nur kleinere Verbesserungen enthielten, zu denen auch aktualisierte Treiber für verschiedene Geräte gehörten.

Windows 2.0

Windows 2.0 brachte 1987 gegenüber der Version 1.0 zwar nur vergleichsweise wenige Neuerungen mit sich. Dazu gehörte, dass Fenster nun auch überlappend angezeigt werden konnten. Außerdem ließ sich nun die Größe ändern und das bis heute übliche Wechseln zwischen verschiedenen Fenstern mittels ALT+Tab war erstmals möglich. In technologischer Hinsicht war Windows 2.0 vor allem deshalb ein Meilenstein, weil die Variante Windows/386 erstmals die 32-Bit-Technologie von Intels 80386-Prozessoren unterstützte. Darüber hinaus gab es Word und Excel erstmals auch für Windows.

Mit Windows 2.0 begann zudem eine langwierige rechtliche Auseinandersetzung mit Apple. Mitte März 1988 reichte Apple Klage ein, weil man durch verschiedene Elemente der Benutzeroberfläche das Urheberrecht verletzt sah. Apple war der Überzeugung, dass Microsoft in Sachen Benutzerführung und Oberflächengestaltung dreist beim Mac geklaut hatte, wobei es unter anderem um die Anzeige überlappender Fenster ging. Die Richter in dem Verfahren ließen nur einen kleinen Teil der fast 200 Klagepunkte von Apple überhaupt zu dem Verfahren zu. Mitte April 1992 wurde dann entschieden, dass die meisten Elemente der Oberfläche nicht durch das Urheberrecht geschützt werden können.

Windows 3.0

Als Windows 3.0 1990 auf den Markt kam, hielten zahllose Neuerungen und eine Vielzahl von Programmen Einzug, die dafür sorgten, dass man, obwohl Windows weiterhin auf DOS aufsetzte, erstmals von Windows selbst als Betriebssystem sprach. Seit der Version 3.0 kann Windows auf verschiedenen Plattformen eingesetzt werden, ohne dass dafür eine speziell für den jeweiligen Prozessor gedachte Version nötig ist. Ab Werk wurde nun die Grafikausgabe per VGA unterstützt und die bis heute übliche Registrierungsdatenbank hielt Einzug.

Windows 3.0 wurde millionenfach verkauft. Bereits nach vier Monaten hatte Microsoft eine Million Kopien zu einem Verkaufspreis von 150 Dollar abgesetzt. Bis zum Jahr 1991 ging Windows 3.0 dann immerhin 25 Millionen Mal über die Ladentheken. Allmählich begann auch der Abschied von der Diskette als Installationsmedium, denn schon die mit Multimedia-Funktionen erweiterte Ausgabe Windows 3.00a wurde nur noch auf CD-ROM angeboten.

Windows 3.1 und 3.11

Mit dem Anfang März 1992 veröffentlichten Windows 3.1 begann der große kommerzielle Erfolg von Microsofts Betriebssystem. Ab dieser Ausgabe wurden Soundkarten standardmäßig unterstützt und die Ausgabe von hohen Bildschirmauflösungen und Farbtiefen bis zu 32 Bit wurde möglich. Dies sorgte allerdings auch dafür, dass viele Programme, die für die Vorgängerversion entwickelt wurden, nicht mehr in Verbindung mit dem neuen Windows 3.1 eingesetzt werden konnten.

Microsoft nahm mit Windows 3.1 auch den Kampf gegen "Softwarepiraten" auf, indem das Unternehmen ein Hologramm auf den Installationsmedien und das so genannte Echtheitszertifikat einführte. Außerdem erprobte Microsoft eine Art Prüfung, durch die Probleme mit alternativen DOS-Versionen wie DRDOS verursacht werden sollten, deaktivierte diese aber in der fertigen Retail-Verion. Zu den technischen Neuerungen gehörten die Unterstützung für TrueType-Fonts und die Möglichkeit, Dateien zwischen Fenstern per Drag and Drop hin und her zu bewegen.

Mit dem im November 1993 erschienen Windows 3.11 für Workgroups wurde erstmals der Zugriff auf das Internet möglich. Über ein Update konnte das TCP/IP-Protokoll nachinstalliert werden, so dass langfristig auch die Chance bestand, per ISDN und DSL ins Internet zu kommen. Die Mindestanforderung war damals ein 386SX oder 386DX Prozessor von Intel oder ein kompatibles Produkt von anderen Herstellern wie AMD und VIA. Windows 3.11 war insgesamt 15 Jahre verfügbar, konnte es doch bis Ende 2008 noch von Geräteherstellern erworben werden, die es unter anderem auf Embedded-Systemen einsetzen.

Windows NT

Schon 1992 wurde Windows NT, wobei der Namenszusatz für "New Technology" steht, anlässlich der Win32 Professional Developers Conference in San Francisco erstmals der Öffentlichkeit präsentiert. Zu den Zielen der neuen, modular entwickelten Plattform gehörte eine deutlich größere Stabilität, die das neue System für die Verwendung auf Server-Systemen besser geeignet machte. Es gab Varianten für Workstation- und für Server-Systeme, NT war also von vornherein eigentlich für den Business-Markt konzipiert.

Mitte 1993 war mit Windows NT 3.1 die erste Ausgabe im Handel erhältlich, mit der der Abschied von der Abhängigkeit von MSDOS begann. Mit NTFS hielt ein neues Dateisystem Einzug und schon von Anfang an wurde ein 32-Bit-Kernel verwendet. Dadurch entstanden diverse Kompatibilitätsprobleme mit den älteren Versionen von Windows, weshalb Microsoft sich entschied, die DOS-basierte Windows-Familie zunächst weiter zu entwickeln, vor allem um Spiele-Nutzern weiter attraktive Produkte zu bieten.

1994 bzw. 1995 hielt Windows NT 3.5 bzw. 3.51 Einzug. Diese Version brahte vor allem Detailverbesserungen mit, die für eine größere Stabilität sorgten. NT 3.51 unterstützte diverse neue 32-Bit-Anwendungen, die zuvor nicht lauffähig waren und wird noch heute vielerorts auf isolierten Systemen eingesetzt. Es konnte auf diversen Plattformen eingesetzt werden, darunter neben PowerPC auch RISC-Systeme.

Windows 95 und Windows NT 4.0

Unter dem Codenamen "Chicago" ging Windows 95 im Jahr 1994 in seine erste breit angelegte Testphase. Mehr als 20.000 Kunden, Enthusiasten, Software-Entwickler und Hardware-Hersteller aus über 20 Ländern in aller Welt erhielten die Vorabversion. Im Februar 1995 ging Windows 95 dann in einer Testversion an wenige ausgesuchte Tester, die allerdings ein Geheimhaltungsabkommen unterzeichnen mussten. Ende August 1995 wurde dann die fertige Ausgabe zum Verkauf freigegeben, mit der der Abschied von der 16-Bit-Architektur endgültig wurde.

Der Marktstart erfolgte mit einer riesigen Marketing-Kampagne, was dann auch für einen nie dagewesenen Erfolg des neuen Betriebssystems sorgte. Unter anderem hielt nun echtes Multitasking auch bei den "Nicht-NT-Systemen" Einzug. Mit der zweiten Version Windows 95B wurden erstmals Festplattenpartionen von mehr als zwei Gigabyte Kapazität unterstützt. Besonders auffällig war die stark überarbeitete Benutzeroberfläche, zu der auch das neue Startmenü, Kontextmenüs und der Desktop gehören. Windows 95B bot außerdem erstmals USB-Support, der jedoch erst mit der 1997 erschienenen Version 95C einigermaßen einwandfrei seinen Dienst tat.

1996 hielt auch Microsofts Browser Internet Explorer 3.0 erstmals auf breiter Front Einzug. Innerhalb der ersten Woche nach dem Termin der offiziellen Verfügbarkeit wurde die Software bereits mehr als eine Million Mal heruntergeladen, obwohl das Internet damals bei weitem noch nicht seine heutige Bedeutung erreicht hatte. Im gleichen Jahr kam außerdem Windows NT 4.0 auf den Markt, das eine ähnliche Oberfläche wie Windows 95 spendiert bekommen hatte.

Windows 98

Mitte 1998 kam das zuvor unter dem Codenamen "Memphis" entwickelte Windows 98 auf den Markt, das die Linie der Nicht-NT-Systeme von Microsoft fortführte. Der Verkauf lief als "Update" zu Windows 95 von Anfang an ordentlich, obwohl Windows 98 zunächst noch zahlreiche Fehler aufwies, die erst mit der späteren Veröffentlichung der so genannten Second Edition einigermaßen unter Kontrolle gebracht werden könnten. Besonders berühmt wurde ein Vorfall während der Vorstellung anlässlich der Consumer Electronics Show 1998, als ein Bluescreen-Absturz den Microsoft-Gründer Bill Gates bei seinem Bühnenauftritt blamierte. Das neue Betriebssystem war anfangs in mehr als 40 Ländern erhältlich.

1999 wurden mit Windows 98 Second Edition diverse sinnvolle Neuerungen eingeführt, die dem Betriebssystem zu einem schnellen Erfolg verhalfen. Unter anderem wurde die USB-Unterstützung deutlich verbessert und erstmals konnte eine Internet-Verbindung eines Rechners mittels der Verbindungsfreigabe auch von anderen Rechnern genutzt werden. Aufgrund der Beliebtheit wurde der Support deutlich länger aufrecht erhalten als ursprünglich geplant war. Hintergrund waren die Probleme mit Windows Millenium, das bis zur Einführung von Windows Vista oft als größter Fehlschlag in der Geschichte von Windows betrachtet wird.

Windows Millenium

Windows Millenium war das letzte Betriebssystem der so genannten Windows 95x-Reihe beziehungsweise DOS-Linie. Die Grundlage bildete Windows 98SE, wobei unter anderem der neue Windows Media Player 7 Einzug hielt. Darüber hinaus wurde die Unterstützung für den USB-Standard deutlich verbessert, es gab jedoch von Anfang an massive Stabilitätsprobleme, was Windows Millenium einen nachhaltig schlechten Ruf einbrachte. Erst nach diversen Updates konnte Windows ME einigermaßen zuverlässig eingesetzt werden.

Windows 2000

Die Betaphase von Windows 2000 begann schon im HErbst 1997 als unter der Bezeichnung Windows NT 5.0 die erste Vorabversion an Tester verteilt wurde. Der Name Windows 2000 wurde ab 1998 verwendet. Mitte Februar 2000 erschien dann die erste finale Ausgabe des vor allem im Business-Bereich sehr beliebten Betriebssystems. Zwar war es mit rund 800 D-Mark sehr teuer, doch im Laufe der Zeit fand Windows 2000 auch unter Privatanwendern viele Fans, was auch auf seine hohe Kompatibilität zu Programmen zurückzuführen ist, die eigentlich für Windows XP entwickelt wurden.

Die Kunden schätzten an Windows 2000 stets die hohe Stabilität, was bei XP Anfangs keineswegs der Fall war. Gerade in Unternehmen wird Windows 2000 heute noch oft an Workstation-Systemen eingesetzt, was vor allem auf die langjährige Unterstützung durch Microsoft und ständige Aktualisierungen zurückzuführen ist. Im Gegensatz zu den Nachfolgeversionen muss Windows 2000 noch nicht durch Microsoft aktiviert werden, sondern kann nach Eingabe eines gültigen Produktschlüssel sofort genutzt werden. Im Juli 2010 endete der Support durch Microsoft endgültig.

Windows XP

Mit Windows XP führte Microsoft im Jahr 2001 sein bisher erfolgreichstes Betriebssystem ein, das zuvor unter dem Codenamen "Whistler" entwickelt wurde. Der Namenszusatz "XP" steht hier für eXPerience, was die Multimediafähigkeit betonen soll. Windows XP wurde in den Varianten Home Edition, Professional, Media Center Edition und später auch als Tablet PC Edition angeboten. Im Jahgr 2005 wurde zudem eine 64-Bit-Variante eingeführt, die eigentlich auf Windows Server 2003 basiert. Für Entwicklungsländer gab es außerdem die funktionell beschränkte so genannte Windows XP Starter Edition.

Mit XP hielt erstmals der NT-Kern im Privatkundenbereich Einzug, was neben der neuen Benutzeroberfläche "Luna" für eine deutlich größere Benutzerfreundlichkeit durch eine erhöhte Stabilität sorgen sollte. Zusätzlich wurde unter anderem das Startmenü ausgebaut, so dass nun zwei Spalten zum Einsatz kamen, die einerseits den Zugriff auf alle Programme und andererseits die am häufigsten genutzten Dokumente und Anwendungen des Anwenders ermöglichen sollten. Der Windows Explorer wurde zudem um Multimedia-Funktionen erweitert, die die Anzeige von Bildern, das Brennen von CDs und den Umgang mit komprimierten Dateien erlaubten.

Mit der neu eingeführten Systemwiederherstellung war außerdem das Zurücksetzen des Systems in einen früheren Zustand möglich, was vor allem bei fehlerhaften Installationen von Treibern und Anwendungen Abhilfe bieten sollte. Weitere wichtige Neuerungen waren die Einführung des Dateisystems NTFS im Markt der Privatanwender und die Integration der Windows Firewall, die mit dem zweiten Service Pack deutlich verbessert wurde. Die Kantenglättung für Schriften ClearType wurde bei XP ebenfalls neu eingebaut.

Windows XP ist bei den Anwendern noch heute extrem beliebt. Zahllose Nutzer blieben auch nach der Einführung des Nachfolgers Windows Vista beim bewährten XP, weil sie keinen Grund sahen, eine Aktualisierung vorzunehmen. Oft herrschte die Meinung vor, ein Upgrade auf Vista lohne nicht, weil keine Neuerungen vorhanden seien, die dies rechtfertigen würden. Der Vertrieb von Windows XP wurde erst vor einigen Wochen offiziell eingestellt. Microsoft leistet nach einer mehrfachen Verlängerung der Frist noch bis April 2014 Support für das fast 10 Jahre alte Windows XP.

Windows Vista

Wegen des großen Erfolgs von Windows XP wollte Microsoft mit der nächsten Version seines Betriebssystems eine große Anzahl von Neuerungen liefern. Während der Entwicklung kam es jedoch zu massiven Verzögerungen. Selbst ranghohe Manager geben heute zu, dass Microsoft sich zunächst zu hohe Ziele gesteckt hatte, weshalb die Entwickler zwischenzeitlich die Notbremse zogen und die Arbeit am Nachfolger von Windows XP von neuem begann. 2005 erschien die erste Vorabversion von Windows Vista, es dauerte aber noch bis 2007 bis das neue Betriebssystem endlich in den Handel kam. Technisch bot Vista tatsächlich viele Neuerungen.

Unter anderem wurde die neue Benutzeroberfläche "Aero" integriert, deren Darstellung teilweise Hardware-beschleunigt erfolgen kann. Aero sorgte für Animationen beim Umgang mit den Programmfenstern und erlaubt den Entwicklern die Nutzung diverser Effekte. Mit der Windows Sidebar wurden zudem die sogenannten Widgets auf den Desktop gebracht. Dabei handelt es sich um Minianwendungen, die zum Beispiel zur Anzeige von Informationen aus dem Internet genutzt werden können, ohne dass dafür ein Browser gestartet werden muss.

Während Microsoft Windows Vista durchaus als Erfolg betrachtet, gilt das Betriebssystem in der öffentlichen Meinung als weitgehend gescheitert. Trotz zahlreicher Neuerungen wurde Vista von den Kunden nur schleppend angenommen. Innerhalb des ersten Jahres der Verfügbarkeit wurden immerhin 100 Millionen Lizenzen für Vista verkauft. Zahlreiche Unternehmen und Privatanwender verzichteten jedoch auf ein Upgrade auf Windows Vista, da sie der Meinung waren, die Neuerungen würden den Migrationsaufwand nicht rechtfertigen. Zudem war Vista vor der Bereitstellung des ersten Service Packs in vielen Bereichen noch unfertig, was neben der enttäuschenden Perfomance und beschränkter Treiberverfügbarkeit ebenfalls für Frustration unter den Kunden sorgte.

Windows 7

Windows 7 erhielt seinen offiziellen Namen im Jahr 2008 als im September eine erste Vorabversion an die Teilnehmer von Microsofts Entwicklerkonferenz PDC herausgegeben wurde. Ab Februar 2009 verteilte Microsoft dann die erste breit verfügbare Beta, die mehrere Millionen Mal von interessierten Testern heruntergeladen wurde. Die Nachfrage war sogar so groß, dass Microsoft den Download zwischenzeitlich wegen einer Überlastung seiner Server vom Netz nehmen musste. Die Entwicklung von Windows 7 wurde im Juli 2009 abgeschlossen, es dauerte aber noch bis Ende Oktober bis das neue Betriebssystem im Einzelhandel für jedermann zu haben war.

Die wohl wichtigste Neuerung in Windows 7 ist die grundlegend überarbeitete Taskleiste, bei der nun alle Fenster eines Programms über das jeweilige Programmsymbol erreichbar sind. Das Interface wurde für eine effektivere Nutzung aufbereitet, so dass der Zugriff auf häufig genutzte Dokumente und Anwendungen nun schneller möglich ist. Außerdem kann Windows 7 dank einer gewissen Touch-Optimierung auch auf Multitouch-Systemen eingesetzt werden. Neu sind auch die so genannten Bibliotheken, in denen Dateien verschiedener Art unabhängig von ihrem jeweiligen Speicherort zusammengefasst werden können.

Windows 7 wird vom Markt bisher nach Angaben von Microsoft so gut angenommen wie kein Betriebssystem zuvor. Innerhalb des ersten Jahres der Verfügbarkeit wurden bereits 240 Millionen Lizenzen abgesetzt, was Windows 7 einen aktuellen Marktanteil von rund 24 Prozent beschert. Aufgrund von Auflagen der Wettbewerbshüter der Europäischen Union wurde im März 2010 ein Menü zur Browserwahl integriert. Derzeit arbeitet Microsoft am ersten Service Pack für Windows 7, das im Frühjahr 2011 erwartet wird. Der Nachfolger Windows 8 wird aller Voraussicht nach im Jahr 2012 auf den Markt kommen, schließlich ist Microsoft nach dem Vista-Desaster mit Windows 7 wieder zu einem zwei- bis dreijährigen Release-Zyklus zurückgekehrt.

Quelle : http://winfuture.de
Titel: Computer-Methusalem EDSAC wird nachgebaut
Beitrag von: SiLæncer am 14 Januar, 2011, 15:26
Die Britische Computer Conservation Society hat damit begonnen, einen der ersten Computer wieder zu errichten. EDSAC entstand ursprünglich an der Universität von Cambridge in England und war der erste Rechner, der ein in ihm gespeichertes Programm ausführte. Als Speicher dienten mit Quecksilber gefüllte Verzögerungsleitungen, die jedoch aus Sicherheitsgründen bei dem Nachbau nicht mehr verwendet werden sollen. Für den Wiederaufbau des Computers stehen 250.000 Pfund (rund 296.000 Euro) zur Verfügung. Das Geld stammt von einem Konsortium unter Leitung des in Österreich geborenen Herman Hauser, 1978 Mitgründer der britischen Computer-Firma Acorn.

(http://www.heise.de/imgs/18/6/1/7/0/4/9/4dfc747e847f8fdd.jpeg)

Vom ursprünglichen EDSAC, der sein erstes Programm 1949 ausführte, sind nur wenige Teile erhalten geblieben. Die Universität von Cambridge besitzt zwar einen Rahmen, in ihm fehlen jedoch die damals benutzten Elektronenröhren. BBC gegenüber sagte der Projektleiter: "Wir können uns ein Bild davon machen, wie er aussah. Aber es wird einen Punkt geben, an dem wir raten müssen, was damals in den Köpfen der Entwickler vorging."

Eine Website soll über den Fortgang des Projekts informieren, sie ist bislang jedoch noch weitgehend leer. Nach Abschluss der Arbeiten wird EDSAC im britischen Museum Bletchley Park stehen. Auf dem Gelände hatten während des Zweiten Weltkriegs Wissenschaftler unter Leitung von Alan Turing erfolgreich die deutsche Verschlüsselungstechnik Enigma geknackt.

Quelle : www.heise.de
Titel: 25 Jahre PC-Viren und der Kopierschutz
Beitrag von: SiLæncer am 21 Januar, 2011, 00:13
Im Januar 1986 wurde erstmals ein Virus gefunden, der IBM-kompatible PCs infizierte. Brain verewigte sich dazu im Boot-Sektor von DOS-Disketten. Geschrieben wurde Brain von zwei Brüdern aus Pakistan, um "ihre medizinische Software vor Urheberrechtsverletzung zu schützen", wie die Wikipedia ein Times-Interview der beiden zitiert.

Knapp zwanzig Jahre später verbreitete der Medienriese Sony BMG einen Kopierschutz, der sich heimlich in jedem System einnistete, das die kopiergeschützten CDs abspielte. Um sich vor dem System und dem Anwender zu verstecken, nutzte es Rootkit-Techniken. Diverse Trittbrettfahrer nutzten in der Folge diese Tarnkappe unter anderem, um sich vor Antiviren-Software zu verstecken. Heute wird dieser Kopierschutz selbst als Schädling eingestuft und landläufig als "das Sony-Rootkit" bezeichnet.

Der erste Computervirus war Brain allerdings nicht. Diese zweifelhafte Ehre wird allgemein dem Elk Cloner zugesprochen, der den Boot-Sektor von Apple-II-Systemen infizierte. Heute sind nahezu alle Schädlinge auf die Windows-Plattform spezialisiert. Sie dienen vor allem dem Online-Banking-Betrug und dem Aufbau von Bot-Netzen für Spam-Versand und DDoS-Attacken. Klassische Viren, die sich über die Infektion von Dateien oder Datenträgern verbreiten, sind das zwar nicht mehr. Aber die Bezeichnung Virus hat sich im Lauf der Jahre als allgemeiner Oberbegriff für Computer-Schädlinge jeglicher Art eingebürgert.

Aus der Reihe fallen Spionage-Programme, die es auf bestimmte Informationen oder Personen abgesehen haben. Diesen Maßanfertigungen werden auf die jeweils benötigte Plattform zugeschnitten und das kann genau so gut Linux oder Mac OS X sein. Ebenfalls eine Sonderstellung nehmen Sabotageprogramme wie Stuxnet ein.

Quelle : http://www.heise.de/newsticker/meldung/25-Jahre-PC-Viren-und-der-Kopierschutz-1172823.html
Titel: Zuse-Reparierer verzweifelt gesucht
Beitrag von: spoke1 am 25 März, 2011, 10:03
Die Fakultät "Bau-Wasser-Boden" am Campus Suderburg der niedersächsischen Hochschule Ostfalia hat ein Problem: Eigentlich sollen die Anfänger des neuen Studiengangs "Angewandte Informatik" den Umgang mit Rechenanlagen ab Herbst von der Pike auf lernen – und das nicht an irgendeiner Anlage, sondern an der Zuse Z22R. Doch derzeit ist die Röhrenmaschine defekt. Und schlimmer noch: Hubert Lehmann, ein früherer Mitarbeiter der Konrad Zuse KG, der bislang dafür gesorgt hatte, die aus dem Jahr 1960 stammende Zuse-Anlage in Suderburg am Leben zu erhalten, ist im vergangenen Monat verstorben.

"Herr Lehmann war eine große Hilfe für uns und wir haben ihm viel zu verdanken", erklärt Diplom-Ingenieur Detlef Krischak. Alle paar Jahre reiste der Rentner aus Osthessen an, blieb ein paar Tage in der Samtgemeinde, wartete die Anlage und beseitigte die eine oder andere Fehlfunktion. Der Kontakt entstand schon Anfang der 1980er-Jahre – doch seither wird der Kreis der Personen, die sich auf Röhrentechnik bei Computern verstehen, immer kleiner. "Hinzu kommt, dass die Anlage sehr empfindlich ist", verdeutlicht Krischak, "um die Z22R betreiben zu können, brauchen wir beispielsweise acht verschiedene Spannungen."

Aktuell gibt es große Probleme mit dem optischen Lochstreifenleser, über den die Maschine mit Programmen und Daten gefüttert wird. Der Campus Suderburg sucht deshalb Personen, die eine Instandsetzung durchführen können. "Einen Basisbetrag für die Reparatur haben wir bereits zusammen", schildert Systemadministrator Krischak im Gespräch mit heise online, "aber natürlich würden wir uns auch über Spenden oder sonstige Hilfen freuen." Die Z22R in Suderburg wurde übrigens 1972 dem Landeskulturamt Hannover abgekauft, das damit in den 1960er-Jahren unter anderem Flächenberechnungen durchführte.

Wer den Campus Suderburg beim Weiterbetrieb einer der wenigen noch funktionstüchtigen Zuse-Rechner unterstützen möchte, kann sich direkt an Diplom-Ingenieur Detlef Krischak (d.krischak ät ostfalia.d_e)* wenden. (pmz)


Quelle:  (http://www.heise.de/newsticker/meldung/Zuse-Reparierer-verzweifelt-gesucht-1214866.html)


--------------------------

EDIT: ich hab die Adresse lieber mal verfremdet. @ und .de ist natürlich richtig. Wer das nicht weiss oder bis jetzt nicht wusste sollte sich wohl auch besser nicht bewerben :rg
Titel: Re: Zuse-Reparierer verzweifelt gesucht
Beitrag von: SiLæncer am 25 März, 2011, 10:11
Wäre das nicht was für Jürgen ? ;D ;)
Titel: Re: Zuse-Reparierer verzweifelt gesucht
Beitrag von: ritschibie am 25 März, 2011, 10:20
Wenn er sich nach Niedersachsen traut, dann ja  ;wusch
Titel: Re: Zuse-Reparierer verzweifelt gesucht
Beitrag von: Micke am 25 März, 2011, 10:55
Vorsicht: Hinter Harburg fängt der Balkan an  ;muah
Titel: Re: Zuse-Reparierer verzweifelt gesucht
Beitrag von: Jürgen am 26 März, 2011, 03:23
Da müsste ich mich erst einmal gründlich einarbeiten.
Mit Röhren-Rechnern hatte ich noch nie zu tun. Mir fehlt da schlicht das Know-How zur Fehlersuche.
TTL, DTL, Relais, von mir aus gerne.
Kennt man ja  auch aus der UE, z.B. bei der Steuerung ehemaliger High-End-Tonbandgeräte.
Aber beispielsweise einen Schmidt-Trigger mit Röhren habe ich nur mal zufällig in einer ollen Elektronischen Rundschau von etwa 1963 beschrieben gesehen, und das war auch schon vor über dreissig Jahren...

So leid mir das tut, aber das wäre so gesehen ein Grossprojekt, und das kann ich mir nur gegen eine Aufwandsentschädigung wirklich nicht leisten.
Wenn's wenigstens hier in Hamburg wäre...
Aber das Gerät passt auch ganz sicher nicht auf meinen Fahrradanhänger, um's nebenbei und in Ruhe zuhause zu machen

BTW, schon richtig, "Vorsicht: Hinter Harburg fängt der Balkan an".
Aber in Niedersachsen könnte ich Bodenrecht geltend machen, da in WL geboren.
Glücklicherweise hat mich Hamburg dann mit drei Jahren eingebürgert...
Titel: Vor 30 Jahren erschien der erste tragbare Rechner
Beitrag von: SiLæncer am 01 April, 2011, 11:50
Der Laptop feiert in diesen Tagen sein 30-jähriges Jubiläum. Im April 1981 kam der erste serienmäßig hergestellte Computer auf den Markt, mit dem die Nutzer unabhängig vom stationären Rechner wurde.

"Osborne 1" hieß der erste tragbare Rechner. Mit dem System war man aber noch weit davon entfernt, im Cafe oder im Zug kurzerhand seinen Computer aus der Tasche zu ziehen und weiterzuarbeiten. Immerhin wog der Osborne 1 stolze 10,7 Kilogramm und ähnelte eher einem kompletten Koffer.

In dem Gerät arbeitete ein Zilog Z80-Prozessor mit einer Taktfrequenz von 4 Megahertz. Außerdem waren 64 Kilobyte Arbeitsspeicher integriert. Als Betriebssystem kam CP/M 2.2 zum Einsatz, dass von MBasic als Programmiersprache ergänzt wurde. Die Ausgabe erfolgte auf einem integrierten Röhrenbildschirm mit einer Bilddiagonale von 5 Zoll, auf dem 24 Zeilen mit je 52 Zeichen angezeigt werden konnten. 1.795 Dollar kostete das Gerät.

(http://screenshots.winfuture.de/Osborne-1-1301650318.jpg)

Der Computer verkaufte sich für die damalige Zeit überraschend gut. Rund 11.000 Geräte wurden verkauft, weiltere 50.000 waren vorübergehend vorbestellt. Allerdings brach das Geschäft bereits einige Zeit später zusammen, weil der Hersteller bereits von einem deutlich leistungsfähigeren Modell sprach, dass aber längst nicht lieferbar war. Potenzielle Kunden nahmen daraufhin allerdings Abstand vom Kauf des ersten Modells und Osborne musste 1983 in die Insolvenz gehen.

Dem Erfolg, den das Konzept des tragbaren Rechners anschließend hatte, stand das aber nicht im Weg. Heute werden rund zwei Drittel des gesamten Umsatzes mit PCs mit Notebooks erwirtschaftet. Nach Prognosen des IT-Branchenverbandes BITKOM werden 2011 in Deutschland 14,8 Millionen Computer verkauft. Fast drei Viertel (72 Prozent) entfallen dabei auf tragbare Geräte wie Notebooks, Netbooks oder Tablet-PCs.

Quelle : http://winfuture.de
Titel: 20 Jahre Linux
Beitrag von: spoke1 am 08 April, 2011, 21:49
Tja Leutz, 20 Jahre Wahnsinn der anderen Art.  ;D   Ich geniesse ihn mittlerweile auch schon seit 1996 erst mit Unterbrechungen, seit 2005 hab ich hier nichts anderes mehr im täglichen Einsatz.

Eigens für das Jubiläum wurde ein kleines Filmchen produziert welches sich bei YouTube findet:

The Story of Linux: Commemorating 20 Years of the Linux Operating System
        
                                                                                                                                          


Auf die nächsten 20 Jahre!
Titel: 100 Jahre IBM: Von Lochkarten zum intelligenten Planeten
Beitrag von: SiLæncer am 16 Juni, 2011, 12:07
Von der Festplatte bis zum Rastertunnelmikroskop: Seit genau 100 Jahren prägt IBM durch Innovationen die Welt - und hat sich dabei ständig verändert. Nur positiv ist die Firmengeschichte allerdings nicht.

Als Computing Tabulating and Recording Company, kurz C-T-R, wurde IBM am 16. Juni 1911 mit rund 1.300 Mitarbeitern gegründet. Es entstand aus dem Zusammenschluss der von Herman Hollerith gegründeten Tabulating Machine Company, der Computing Scale Corporation und der International Time Recording Company. Durch Hollerith entstand der deutsche Ableger der heutigen IBM in Berlin, die Dehomag (Deutsche Hollerith-Maschinen Gesellschaft mbH), sogar schon ein Jahr vor der C-T-R-Gründung 1911.
IBM-Technik half den Nazis

Erst seit 1924 trägt das Unternehmen den Namen IBM. Das Kürzel für International Business Machines sollte die internationalen Ambitionen des Unternehmens ausdrücken, das heute mit rund 400.000 Mitarbeitern in 170 Ländern der Welt aktiv ist. Zudem passte der Name besser zu den Produkten, die vor allem für Geschäftskunden gedacht waren, darunter Tabelliermaschinen, Locher und Lochkartensortierer .

(http://scr3.golem.de/screenshots/1106/IBM-100/thumb620/5390215409_6299337cf3_o.jpg)
1924: Der neue Name IBM soll internationale Ambitionen ausdrücken.

Auch die Nazis nutzten die Lochkarten - während der Hitlerzeit lieferte IBM sie weiter an die Dehomag. Sie wurden unter anderem dafür verwendet, die Erfassung der Juden in Deutschland - und später im besetzten Europa - und die Organisation des Holocaust effektiver zu gestalten. Nach dem Erscheinen eines Buchs über IBMs Kollaboration mit den Nazis 2001, versprach das Unternehmen Unterstützung für die wissenschaftliche Aufklärung dieser Zusammenarbeit.

Nicht nur mit politischen Vorwürfen aus der Vergangenheit sieht sich IBM konfrontiert, sondern aktuell auch mit Klagen ganz anderer Art: 2008 reichten die Anwohner einer IBM-Fabrik in dem als IBMs "Geburtsstadt" bekannten Ort Endicott Sammelklage gegen das Unternehmen ein. Sie werfen IBM vor, Luft, Wasser und Boden der Umgebung mehr als 80 Jahre lang mit Chemikalien vergiftet zu haben - unter anderem mit der krebserregenden Chemikalie Trichloroethylen (TCE).

Made by IBM

In 100 Jahren wurden IBM insgesamt rund 76.000 Patente erteilt. Das Unternehmen wurde wiederholt Patentweltmeister mit der größten Zahl an gewährten Patenten. Allein im Jahr 2010 kamen über 5.000 Patente hinzu, mehr als in den ersten 50 Jahren der Unternehmensgeschichte zusammen.

Bereits 1956 entwickelte IBM die erste magnetische Festplatte, RAMAC (Random Access Method of Accounting and Control) genannt. Die Geräte speicherten 10 MByte und wogen stolze 10 Tonnen. 1964 folgten mit der Serie S/360 die ersten Großrechner und 1975 der erste tragbare Computer: Der IBM 5100 wog 25 kg, verfügte über 16 KByte RAM und ein Display, das 16 x 64 Zeichen anzeigte.

Der IBM-PC

1981 brachte IBM dann den PC auf den Markt. IBMs Antwort auf den Apple II war aus frei am Markt erhältlichen Komponenten zusammengesetzt, so dass er auch von anderen Unternehmen nachgebaut werden konnte. Das Betriebssystem kam von einer kleinen, unbekannten Firma namens Microsoft. Später wandte sich IBM Linux zu und kündigte 2000 an, eine Milliarde US-Dollar in das freie Betriebssystem zu investieren. 2001 folgte eine Werbekampagne unter dem Titel "Peace, Love and Linux".

OS/2: ein Fehlschlag

IBM war aber nicht nur erfolgreich. Zu den bekanntesten Fehlschlägen zählt sicherlich OS/2. Als Nachfolger für DOS von IBM zusammen mit Microsoft entwickelt, konnte sich OS/2 nie auf breiter Front durchsetzen - auch, weil Microsoft 1991 aus der Kooperation ausstieg, um sich der Weiterentwicklung von Windows zu widmen, was für Microsoft zum großen Erfolg wurde. 2005 verkündete IBM dann das langsame Ende von OS/2 und wollte das System später nicht als Open Source freigeben.

(http://scr3.golem.de/screenshots/1106/IBM-100/thumb620/5390217559_ee50723599_o.jpg)
RAMAC (Random Access Method of Accounting and Control): die erste magnetische Festplatte 1956

War der Name IBM noch vor zehn Jahren eng mit dem PC und der Marke Thinkpad verbunden, hat sich IBM 2001 von seinem PC- und Notebookgeschäft getrennt und ist heute eher ein Dienstleistungskonzern mit großer Forschungsabteilung, die einige prägende Entwicklungen und insgesamt fünf Nobelpreisträger hervorgebracht hat.

Deep Blue und Watson

Um seine technischen Fortschritte zu demonstrieren, bediente sich IBM wiederholt medientauglicher Inszenierungen. Zuletzt war es der Supercomputer Watson, den IBM in der US-Quiz-Sendung Jeopardy gegen Menschen antreten ließ. Watson schlug am Ende seine menschlichen Konkurrenten deutlich.

Ähnlich lief es schon 1997 ab: Damals spielte der Supercomputer Deep Blue Schach gegen Garri Kasparow und besiegte den Weltmeister.

Aktuell wirbt IBM mit dem Slogan "Smart Planet" und stellt auf der zugehörigen Website einen Schaukasten für Lösungen zur Verfügung, die die Welt von morgen prägen sollen.

Quelle : www.golem.de
Titel: Geburtstagsvideo für Linux von Microsoft
Beitrag von: SiLæncer am 20 Juli, 2011, 14:21
Microsoft hat sich mit einem Video an dem Wettbewerb der Linux Foundation beteiligt und gratuliert dem freien Betriebssystem zum 20. Jahrestag.

Nicht zum ersten Mal läuft ein Video-Wettbewerb der Linux Foundation. In diesem Jahr steht der Wettbewerb, der schon im April gestartet wurde, unter dem Motto »Der 20. Jahrestag von Linux«. Jetzt ist ein Beitrag von jemandem eingegangen, von dem man es nicht erwartet hätte: In einem genau 60 Sekunden langen Video gratuliert Microsoft dem Linux-Maskottchen Tux zum Geburtstag. Der Titel des Beitrags lautet »Microsoft just want to say Happy Birthday!«



Die einzelnen Bilder des Videos sehen aus wie Kreidezeichnungen auf einer Tafel. Die Story ist schnell erzählt: Am Anfang sind Linux und Microsoft erbitterte Kontrahenten, verdeutlicht durch die Zeile »Microsoft gegen Linux«. Microsoft will den vor seinem Iglu stehenden Linux-Pinguin Tux eine Geburtstagstorte überreichen, dieser lehnt aber ab und zieht sich in seinen Iglu zurück. Danach versucht das Video einen Rückblick, um dies zu erklären. Sogar an die legendären Halloween-Dokumente von 1998 wird erinnert, in denen Microsoft Strategien darlegte, den unerwünschten Konkurrenten zu vernichten. Entschuldigend stellt das Video fest, dass die Ideen der Linux-Gemeinschaft für Microsoft damals geradezu kindisch klangen. Eine Versöhnung sei immer noch nicht in Sicht. Oder doch? fragt das Video zum Abschluss und betont das mit einem »Happy Birthday« und der abschließenden Abwandlung des Anfangssatzes von »Microsoft gegen Linux« zu »Microsoft und Linux«.

Quelle : www.pro-linux.de
Titel: Re: Geburtstagsvideo für Linux von Microsoft
Beitrag von: berti am 20 Juli, 2011, 19:04
naja, soo abwegig ist das ganze nicht, zum einen steuert MS einiges zu linux zu, zum anderen kommen immer mehr "Linux-Zeilen" in den MS-Core. (offiziell, diesmal nicht geklaut).

oder wie schreibt z.B. ZD-Net:
Zitat
Cats and dogs; apples and oranges; Linux and Microsoft. Two of these three things do not go together. Would you believe that Microsoft—yes Microsoft—was the fifth largest contributor to the soon to be released Linux 3.0 kernel? Believe it.



[fun] und wenn ich mir  die Linux-abstürze ansehe: der Pinguin wird immer Windowsähnlicher, jetzt noch ein paar Viren und Trojaner, dann ist Linux erwachsen geworden  ;wusch   [/fun]

Titel: 30 Jahre MS-DOS
Beitrag von: SiLæncer am 27 Juli, 2011, 18:24
Mit nur 75.000 US-Dollar legte vor 30 Jahren ein kleines Softwareunternehmen den Grundstein für ein Imperium. Das von Bill Gates und Paul Allen gegründete Microsoft erwarb die Rechte am Disk Operating System QDOS von Seattle Computer Products, um es unter eigener Flagge vermarkten zu können. Der 27. Juli 1981 gilt daher als Geburtstag von MS-DOS.

(http://www.heise.de/imgs/18/6/9/3/0/0/4/99c5370d2c931a4b.png)

Allen und Gates hatten es eilig. Sie hatten bereits einen geheimen Kunden, dem sie ein DOS verkaufen wollten. Das war der Büromaschinenriese IBM, der seinen neuen Personal Computer schon im August vorstellen und mit einem DOS von Microsoft ausliefern wollte. Als sich Ende des Jahres der Erfolg des IBM PC abzuzeichnen begann, vergab Microsoft DOS-Lizenzen für 95.000 US-Dollar – wer noch im Jahr 1981 unterschrieb, bekam 50 Prozent Rabatt.

Zur Markteinführung des PC hatte Gates geschätzt, dass IBM wohl 200.000 Geräte verkaufen könnte. Damit lag der Jungunternehmer gründlich falsch: 1984 wurde der einmillionste PC verkauft; IBM bot das Erfolgsmodell ohne große Modifikationen bis zum April 1987 an. Der Erfolg von MS-DOS ist eng mit dem des PC verknüpft. IBM bot DOS für 40 US-Dollar an, als Alternative konnten Kunden auch das Betriebssystem CP/M von Digital Research bestellen, das 240 US-Dollar kostete. Als der IBM PC Anfang 1983 nach Deutschland kam, gab es diese Wahlmöglichkeit nicht mehr – Microsofts DOS war zwischenzeitlich zum PC-Standard geworden.

Im Juli 1980 hatte IBM ein Projekt unter dem Decknamen "Chess" gestartet. Bill Lowe und Don Estridge von der "Entry Systems Division" sollten einen Einsteiger-Computer aus zugekauften Teilen entwickeln. Bis dahin galt bei IBM die Devise, jede Komponente selbst zu entwickeln, was angesichts der Zeitvorgabe von einem Jahr völlig illusorisch war. Auch das Betriebssystem und das damals unverzichtbare BASIC sollten eingekauft werden: Bill Lowe rief Bill Gates vom BASIC-Lieferanten Microsoft an und dieser gab ihm die Telefonnummer von Gary Kildall, dem Chef von Digital Research und Erfinder von CP/M.

Die Geschichte, warum die IBM-Leute auf der Suche nach einem Betriebssystem bei Kildall scheiterten, gehört zu den mythenumrankten Erzählungen der IT. Tatsächlich kaufte IBM sein DOS-System bei Microsoft im Bündel mit BASIC für 400.000 US-Dollar. Der Haken an der Sache: Microsoft verfügte während der Verhandlungen nicht über das passende Betriebssystem. Zusammen mit ihrem BASIC hatten Bill Gates und Paul Allen versucht, IBM das hauseigene Xenix zu verkaufen. Das Unix-Derivat wurde von Microsoft ab November 1980 ausgeliefert und war als System für den 16-Bit-Prozessor 8086 von Intel gedacht. IBM entschied sich jedoch, den kleineren 8088 von Intel einzusetzen, weil das Angebot an passender Hardware größer war.

Microsoft musste also ein anderes Betriebssystem suchen. Die Wahl fiel auf das von Tim Paterson für Seattle Computer Products entwickelte QDOS (Quick and Dirty OS), ein halber Clone von CP/M mit Anleihen an NorthStar DOS und Übernahmen von CDOS, dem CP/M-Clone von Cromenco. Paul Allen hatte zuvor bei der Arbeit an der Microsoft Softcard für den Apple ][ zusammen mit Paterson programmiert. Der Microsoft-Mitgründer war davon überzeugt, dass Patersons System für IBM geeignet und ausreichend kompatibel zum führenden CP/M war. Ganz kompatibel war das später als 86-DOS vermarktete System aber nicht, wie ein Hinweis im Handbuch verdeutlichte:

SPECIAL NOTE: 86-DOS is not related to the popular CP/M operating system of Digital Research. Disk directory formatting and space allocation are completely different and incompatible. 86-DOS does, however, provide a utility called RDCPM which will transfer files from CP/M disks to 86-DOS disks. Further, operating system calls and calling conventions have been provided which make possible automatic translation of Z80 programs written for CP/M into 8086 programs that run under 86-DOS.

QDOS wurde zunächst nicht eingekauft, sondern für ein Projekt angemietet, wobei der bei Seattle Computer Products arbeitende Paterson nominell zum Microsoft-Mitarbeiter wurde und die Aufgabe hatte, seine DOS-Variante zu verbessern und an den IBM PC anzupassen. Bedingt durch strikte Geheimhaltungsklauseln wusste man bei Seattle Computer Products bis zum 12. August 1981 nicht, wer denn der ungenannte Kunde von Microsoft war. Der Rest ist Geschichte.

Für 50.000 US-Dollar und eine vorab überwiesenen Lizenzahlung seines "ungenannten Kunden" in Höhe von 25.000 US-Dollar erwarb Microsoft am 27. Juli 1981 ein Produkt, dessen Lizenzen Seattle Computer eigentlich für 150.000 Dollar verkaufen wollte. Microsoft wähnte sich im Besitz einer Erlaubnis zur Sublizensierung und begann Ende 1981, ihr MS-DOS für 95.000 US-Dollar zu lizensieren. Wer die Vereinbarung noch im Jahr 1981 unterzeichnete, bekam 50 Prozent Rabatt. Mit dem Kauf von DOS hatte Microsoft (Jahresumsatz 1981: 15 Millionen US-Dollar, 1,5 Millionen Gewinn) einen "strategischen Gewinn gegen Apple" (Jahresumsatz 1981: 334 Millionen US-Dollar, 39,4 Millionen Gewinn) erzielt und konnte sich freischwimmen, wie der heutige CEO Steve Ballmer später erzählte.

Quelle : www.heise.de
Titel: Der PC wird 30 - und feiert im stillen Kreis
Beitrag von: SiLæncer am 11 August, 2011, 16:29
Die Geburtstagsfeier fällt aus: Mit 30 Jahren hat der PC keine Kraft mehr für eine große Party. Für die Entwicklung der digitalen Technik ist er fast bedeutungslos geworden: Jetzt gibt das Netz den Ton an, und für den Zugang gibt es praktischere Geräte.

Der PC fing bescheiden an, konnte nur Zeile um Zeile mit der Eingabe von Textbefehlen in den 16 Kilobyte großen Arbeitsspeicher bedient werden. Aber am 12. August 1981 begann mit dem IBM 5150 eine tiefgreifende Umwälzung für die Zivilisation der Menschheit. Drei Jahrzehnte danach ist das Kapitel abgeschlossen: Der PC geht den gleichen Weg wie die Schreibmaschine, die Schallplatte oder die Glühbirne, wie IBM-Ingenieur Mark Dean am Mittwoch (Ortszeit) in einem Firmenblog geschrieben hat.
 
"Ich bin stolz darauf, dass ich einer von einem Dutzend IBM-Ingenieuren war, die die erste Maschine entwickelt haben", erklärte Dean, der heute bei IBM Technik-Chef für Afrika und den Nahen Osten ist. Damals hätte er allerdings nicht gedacht, dass er lang genug leben würde, um auch noch beim Niedergang des PCs dabei zu sein.

Als wichtigstes digitales Arbeitsgerät nutzt Dean jetzt einen Tablet-Computer. Aber der PC werde in seiner Funktion als Zentrum der digitalen Technik nicht von einer anderen Gerätekategorie abgelöst. "Innovation blüht nicht auf Geräten am besten, sondern in den sozialen Räumen dazwischen, wo Menschen und Ideen zusammentreffen und interagieren".
 
Das Herz der IT-Technik schlägt jetzt im Netz: Anwendungen werden zunehmend nicht mehr auf dem Datenträger der Geräte installiert, sondern von verteilten Rechenzentren im Netz bereitgestellt, aus der "Cloud", wie der Fachbegriff dafür heißt. Diese bietet nicht nur Software, sondern auch zentrale Hardware-Ressourcen wie Rechenkapazität und Datenspeicher - wann immer und in welchem Umfang diese benötigt werden.
 
Der IBM 5150 war da sehr viel überschaubarer: Sein Intel-Chip hatte eine Taktrate von 4,77 Megahertz. Statt einer Festplatte gab es ein oder zwei Laufwerke für 5,25-Zoll-Disketten mit einer Kapazität von jeweils 160 Kilobyte. Der Bildschirm zeigte 24 Zeilen mit jeweils bis zu 80 Textzeichen an. Das Betriebssystem, DOS 1.0, steuerte Microsoft bei. Die unförmige Kiste mit Monitor und Tastatur war nicht der erste transportierbare Computer als Alternative zu den Großcomputern in ihren eigenen Räumen. So gab es schon 1975 den ähnlich kompakten IBM 5100. Und 1977 kam der Apple II heraus, ein früher Vorläufer des Mac-Computers.
 
Aber der IBM 5150 setzte einen Standard, die Basis für die Entwicklung der IBM-kompatiblen Computer. Der einfache Aufbau mit Steckkarten für einzelne Bauteile unterstützte die Entwicklung von immer leistungsfähigeren Personal Computern. Und die Software dafür wurde weiterhin von Microsoft dominiert.
 
An zahllosen Arbeitsplätzen und auf privaten Schreibtischen leistet der PC als treuer Digitalknecht weiter seine Dienste. Für die Geburtshelfer von IBM aber gehört diese Technik längst zur "Commodity-Hölle", wie es Vorstandschef Sam Palmisano zur Hundertjahrfeier des Unternehmens im Juni formulierte. Der PC ist nur noch Commodity, bloßer Rohstoff. Aber ohne ihn wäre das Netz nicht zur treibenden Kraft von Technik, Wirtschaft und Gesellschaft geworden.

Quelle : www.digitalfernsehen.de
Titel: Re: Der PC wird 30 - und feiert im stillen Kreis
Beitrag von: Snoop am 11 August, 2011, 18:15
Seh ich etwas anders. Das Datum lässt sich nicht so leicht festmachen und ein Abgesang auf den PC ist noch viel zu verfrüht. Solange die Prozessor-, Speicher- und Grafikkartenindustrie so boomen, kann es wohl noch nicht zu Ende sein, oder?

Ich jedenfalls möchte nicht auf Smartphone und Co angewiesen sein, wenn es um Arbeit geht. Auch ein Laptop wäre mir auf Dauer zu unbequem. Ok, jedes einzelne Gerät hat so seine Vorteile gegenüber dem Desktop-PC, aber insgesamt schlägt er alle!
Titel: Re: Der PC wird 30 - und feiert im stillen Kreis
Beitrag von: berti am 11 August, 2011, 19:58
zum ibm 5150 ein paar bildchen:

motherboard  (prototyp ? ):

(http://www.ibm5150.net/graphics/PCprototypefront.jpg)
(http://www.ibm5150.net/graphics/PCprototypeback.jpg)
   (Bilder des Motherboards nicht mehr verfügbar)

und so sah das werbebild aus:

(http://www-03.ibm.com/ibm/history/exhibits/pc25/images/6705PH01.jpg)
oder
(http://regmedia.co.uk/2011/04/11/ibm_pc_with_5156_box.jpg)

man beachte die Festplatten-Station, 2 mal 5 MB, was braucht man mehr  ;wusch
Titel: Re: Der PC wird 30 - und feiert im stillen Kreis
Beitrag von: SiLæncer am 11 August, 2011, 20:20
krasse Technik ;D ...vorallem die Verdrahtung auf der Unterseite ... ;)

Zitat
man beachte die Festplatten-Station, 2 mal 5 MB, was braucht man mehr

jo...genau ...die bekommt man nieeee voll ;)
Titel: Re: Der PC wird 30 - und feiert im stillen Kreis
Beitrag von: Jürgen am 12 August, 2011, 03:06
Zitat
...die Verdrahtung auf der Unterseite ...
hat vor allem damit zu tun, dass damals noch niemand mal eben eine Software für Platinen-Layouts anwerfen konnte, um damit eine Belichtungsvorlage zu erstellen, nach der eine Platine für den Prototyp geätzt werden könnte.
Sofern überhaupt verfügbar, wären Einsätze von damaligen Grossrechenrn für solche Zwecke viel zu teuer gewesen, und man hätte Monate im Voraus Rechenzeit buchen müssen.
Auch dafür musste also erst einmal der PC erwachsen werden...

Diese Brotbrett-Konstruktion hatte ausserdem noch mehrere andere Vorteile.
Man brauchte sich zunächst keine Gedanken über Layer-Anzahl und Entflechtung durch Layerwechsel zu machen.
Kleinere Veränderungen sind mit geringem Aufwand schnell zu machen.
Ungewollte Einkopplungen durch lange parallele Leiterbahnen konnten so weitgehend vermieden werden. Schräge Überkreuzungen waren weit weniger kritisch.

Platinenlayouts wurden damals noch händisch entworfen, aber normalerweise/hoffentlich erst, wenn der Schaltplan endgültig feststand.
Diese aufwändige Arbeit machte man sich nicht öfter als unbedingt nötig.

Als Fernsehtechniker kenne ich das Thema natürlich auch noch, und ebenso die Grenzen dieser Methoden.
Bei höheren Frequenzen musste anders vorgegangen werden, beispielsweise mit einer rückseitig komplett kupferbeschichteten Platine, wo im Verlauf des experimentellen Aufbaus der Schaltung Leiterbahnen mit Cutter oder Fräskopf herauspräpariert wurden.
Das mag zwar mal für ein Tunerpack mit einer Handvoll Bauteile gehen, aber bei so einem Board mit mindestens vielen hundert Pins sicher nicht.
So ist die Entwicklung heutiger hochkomplexer und schneller Computerplatinen erst durch ebendiese Computer möglich geworden, ein Teufelskreis...

Nebenbei, diese extrem wirre Verdrahtungstechnik wurde für Mainboards nicht erstmalig eingesetzt.
In noch früheren Computerzeiten wurden die Geräte teils mit ähnlicher Vogelnesttechnik (vor)programmiert.
Dann allerdings eher gesteckt oder gewrapt als gelötet.
Und soooo viel anders sah Omas Röhrenradio oft von unten auch nicht aus.

Titel: 20 Jahre Linux
Beitrag von: SiLæncer am 25 August, 2011, 08:04
Heute vor genau 20 Jahren, am 25. August 1991, kündigte Linus Torvalds in einem mittlerweile legendären Newsgruppen-Beitrag eine Entwicklung an, die kurz danach als Linux bekannt werden sollte.

In der Usenet-Newsgruppe comp.os.minix fragte der in Finnland geborene und zu der Zeit an der Universität Helsinki studierende Torvalds, welche Features die Benutzer an Minix mögen und welche nicht. Offensichtlich versuchte er zu diesem Zeitpunkt schon, dem noch namenlosen System die Features zu geben, die die Benutzer am meisten benötigen würden.

In dem Beitrag schrieb Torvalds, dass das neue System frei sein werde, dass es ein Hobby und auf 386/486-CPUs beschränkt sei. Ferner habe er bereits bash 1.08 und gcc 1.40 auf das System portiert und erwarte, dass es in einigen Monaten benutzbar sein werde.

Dass Linux in diesem Jahr 20 Jahre alt wird, ist klar. Unsicher ist allerdings der genaue Geburtstag. Denn an diesem bewussten 25. August war Linux schon seit Monaten in Entwicklung. Sollte man stattdessen lieber den 17. September als Geburtstag von Linux gelten lassen? An diesem Tag des Jahres 1991 stellte Torvalds die erste Kernelversion, 0.01, auf einem FTP-Server der Universität bereit. Oder ist der Geburtstag Anfang des Jahres 1991 anzusiedeln, als Torvalds auf seinem gerade gekauften 386-PC mit den ersten Entwicklungen begann? Vermutlich weiß er selbst nicht mehr, wann ihm klar wurde, dass er nicht mehr nur einen Terminal-Emulator, sondern ein echtes Betriebssystem als Ziel hatte.

Im Zweifelsfall feiert man eben zweimal, heute und am 17. September. Als Linus am 17.9.1991 die Version 0.01 veröffentlichte, war diese noch nicht sonderlich benutzbar, aber bereits Anfang 1992 verfügte der Kernel über eine virtuelle Speicherverwaltung und war als Entwicklungsplattform geeignet. Zu diesem Zeitpunkt war die Versionsnummer schon 0.12. Im Laufe des Jahres 1992 folgte eine erste Implementation von TCP/IP, die die Portierung des X Window Systems von XFree86 auf Linux ermöglichte. Die ersten Distributionen entstanden Ende 1992.

Die Ankündigung von Linus war aus heutiger Sicht revolutionär. Innerhalb von wenigen Monaten beschäftigten sich hunderte der talentiertesten Hacker mit dem neuen System und trugen zahlreiche Erweiterungen bei. Damit wurde Linux zum größten Projekt, das gemeinschaftlich entwickelt und über das Internet koordiniert wurde, und setzte neue Maßstäbe. Ein Großteil der Innovation im Softwarebereich wird heute unter Verwendung von Linux und anderer freier Software geleistet. Bei allen Erfolgen darf aber nicht vergessen werden, dass ohne die Vorarbeit von GNU, die alle grundlegenden Tools bis hin zu Emacs und GCC geschrieben und frei zugänglich gemacht hatte, Linux nicht so leicht möglich gewesen wäre.

Das Linux-Ökosystem ist heute so groß, dass es nicht mehr möglich ist, einen detaillierten Überblick zu geben. Es würde auch diesen Artikel sprengen, die Geschichte von Linux hier auszuführen. In der Wikipedia wurde dies bereits ausführlich getan. Eine kürzere Zusammenfassung hat Heise Open Source veröffentlicht. Die von Torvalds scherzhaft zum Ziel erhobene »World Domination« von Linux wurde in fast allen Sektoren Realität. Nur auf dem Desktop kam es nie zum Durchbruch, zu groß waren die Abhängigkeiten von Windows, die Microsoft auf allen Ebenen installiert hatte. Doch selbst wenn nur ein Prozent der Desktop-Anwender Linux nutzen, wie manche Studien behaupten, hindert uns das nicht daran, den Rest wohlwollend zu ignorieren und auf das Wohl von Linux anzustoßen.

Quelle : www.pro-linux.de
Titel: Re: 20 Jahre Linux
Beitrag von: Jürgen am 26 August, 2011, 01:07
Wahrscheinlich viel mehr Linuxe als auf den PCs findet man zuhause längst in ganz anderen Geräten eingebettet, wie z.B. Receivern und Routern.
Ich frage mich schon lange, wann Linux auf Toaster und Bügeleisen überspringt ;)

Prost!
Titel: Re: 20 Jahre Linux
Beitrag von: Snoop am 26 August, 2011, 11:07
Bekommt man dann Pinguine in den Toast gebrannt? ;)
Titel: Re: 20 Jahre Linux
Beitrag von: Jürgen am 27 August, 2011, 01:51
Lieber die als kleine grüne Drachen oder gar Karl Klammer  :lach
Titel: 20 Jahre Webcam
Beitrag von: SiLæncer am 08 November, 2011, 15:53
Am Anfang stand eine alte Filterkaffeemaschine, die – so erinnert sich Quentin Stafford-Fraser – ziemlich schlechten Kaffee kochte. Trotzdem ging ihr Bild um die Welt. Stafford-Fraser und seine Kollegen im Computerlabor der Cambridge-Universität hatten Ende 1991 eine Kamera auf das Haushaltsgerät gerichtet, die dreimal pro Minute ein verschwommenes, graustichiges Abbild der Maschine auf die Bildschirme der Labormitarbeiter schickte.

"Endlich musste viele Kollegen nicht mehr drei Stockwerke runterrennen, um dann eine leere Kaffeekanne vorzufinden", erzählt Stafford-Fraser. Ein kleiner Schritt für ihn und seine Kollegen – so klein, dass sie sich an das genaue Datum gar nicht mehr erinnern können –, aber ein großer für die Computertechnik: Die Webcam war erfunden.

(http://www.heise.de/imgs/18/7/3/3/4/2/7/0d629a5a9eb6b09b.gif)
Der einzige Haken: Zunächst konnten nur Stafford-Fraser und seine Kollegen mit Hilfe einer selbstgeschriebenen Software den Pegelstand der Kaffeekanne verfolgen. Denn das Web war gerade erst erfunden, nur ein paar Experten nutzten das neue System. Erst als Web-Browser zwei Jahre später auch Bilder anzeigten, konnte die Welt in den "Trojan Room" schauen. "Damals gab es im Internet noch nicht wirklich viel, und wie diese verrückten Leute in Cambridge da eine sehr teure Kamera auf eine sehr billige Kaffeemaschine gerichtet haben, das hat die Menschen irgendwie angezogen", sagt Stafford-Fraser heute. "Und dann wurde das Ganze ziemlich berühmt."

Bald klopften Menschen aus aller Welt an der Tür des Labors, die sich bei der Touristen-Information in Cambridge erkundigt hatten, wo denn die "Kaffeemaschinen-Kamera" zu finden sei. "Und wir bekamen Beschwerden von Menschen aus anderen Zeitzonen, dass sie die Bilder nicht sehen konnten, wenn es Nacht in Großbritannien war. Also mussten wir eine Lampe aufstellen, die die Kaffeemaschine die ganze Zeit beleuchtete." Heute gehört die wohl meistfotografierte Kaffeemaschine der Welt dem Nachrichten-Portal Spiegel Online. Gerade ist sie mit der Redaktion ins neue Verlagshaus in der Hamburger Hafencity umgezogen und soll dort schon bald wieder per Webcam zu bewundern sein, mit der Aussicht aus dem 13. Stock des Hochhauses im Hintergrund.

Die Webcam ging unterdessen in Serienproduktion, wurde erschwinglich und auf der ganzen Welt aufgestellt – ob auf der Südsee-Insel Bora-Bora, am Südpol, im Vatikan oder einfach nur am heimischen Gartenzaun. "Die Webcam bringt die Realwelt in den virtuellen Raum", sagt die Kommunikationswissenschaftlerin Sabrina Misoch von der Universität Mannheim. "Sie hat die zwischenmenschliche Kommunikation im Netz völlig verändert: Berufliche Konferenzen oder auch private Telefongespräche sind damit persönlicher, unmittelbarer und weniger anonym geworden."

Inzwischen sind in praktischen allen Notebooks Webcams eingebaut. Dank Videotelefonaten via Skype können Oma und Opa ihre Enkelchen in einem weit entfernten Land aufwachsen sehen. Die Kamera am Mount Everest zeigt Bergsteigern schon vor dem Kraxeln den Gipfel. "Im Grunde muss man das Haus seit der Erfindung der Webcam nicht mehr verlassen", sagt Misoch. "Das war ein wahnsinniger Einschnitt."

Das Medium biete unendlich viele Möglichkeiten und habe natürlich auch seine umstrittenen Seiten, etwa "Sex-Cams", die Live-Striptease im Internet bieten, oder öffentliche Überwachungskameras. "Weil die Kameras so klein sind, sind sie zum Überwachen natürlich perfekt geeignet. Aber das stellt auch eine Grenzüberschreitung dar, denn ich kann mir nicht mehr aussuchen, wer mich beobachtet."

Die allererste Webcam ist dagegen längst abgeschaltet. Am 22. August 2001 schickte sie ihr letztes Bild in die Welt hinaus. Immer noch verschwommen und graustichig sind darauf der heute 44-jährige Computerwissenschaftlers Quentin Stafford-Fraser und seine Kollegen zu sehen, wie sie einen Computer ausschalten. "Ich mache oft Witze darüber, dass ich in dieser Forschergruppe mehr als ein Jahr lang gearbeitet habe und mich eigentlich an keinen anderen Teil meiner Arbeit mehr erinnern kann als an die Kaffeemaschinen-Kamera – dabei habe ich nur einen Nachmittag lang daran gearbeitet", sagt Stafford-Fraser. "Aber viele gute Dinge entstehen ja so, dass Menschen einfach aus Spaß herumexperimentieren."

Quelle : www.heise.de
Titel: Vor 40 Jahren: Mit dem 8008 kamen die Mikros
Beitrag von: SiLæncer am 01 April, 2012, 12:00
Am 1. April 1972 stellte die junge Firma Intel ihren zweiten Mikroprozessor vor. Nur fünf Monate nach dem 4004 entwickelt, war dieser Chip mit 3300 Transistoren ursprünglich eine Auftragsentwicklung für die Firma Datapoint, die einen Controller für ein Computerterminal suchte. Intel verlor den Auftrag und stellte den 8008 auf dem freien Markt vor. So fand er seinen Weg in den Micral-N, den ersten Komplettrechner mit Mikroprozessor und in den SCELBI-Bausatz. Für den 8008 schrieb Gary Kildall das Betriebssystem "Control Program for Microprocessors", später CP/M abgekürzt.

Der von 1972 bis 1983 produzierte 8008 wurde von Ted Hoff, Stan Mazor, Hal Feeney und Federico Faggin entwickelt und hieß zunächst 1201. Wie sich die Entwickler später im Interview erinnerten, wurde der Mikroprozessor für ein Datapoint-Terminal konstruiert, das bereits recht nah mit den späteren Mikrocomputern verwandt war.

Der 8008 war der erste von Neumann-Rechner Intels und wurde unter dem Namen MCS-8 an die japanische Seiko Corporation verkauft, die einen Prozessor für Tischrechner suchte. In der Geschichte des Personalcomputers gilt er als direkter Vorläufer des 8080, der sämtliche Befehle des 8008 übernahm. Damit ist der Mikroprozessor der Urahn der erfolgreichen X86-Architektur.

Quelle : www.heise.de
Titel: Bandspeicher wird 60
Beitrag von: SiLæncer am 21 Mai, 2012, 06:20
(http://www.heise.de/imgs/18/8/4/2/6/5/9/d86abc2a3e88e7a5.jpeg)
IBM feiert am heutigen Montag 60 Jahre Bandspeicher: Am 21. Mai 1952 ging in Gestalt einer IBM 726 das erste kommerziell relevante Bandlaufwerk in Betrieb. Das kleiderschrankgroße Ungetüm konnte auf ein 720 Meter langes und rund 1,25 Zentimeter breites Band 7500 Zeichen pro Sekunde schreiben; ein Band fasste circa 1,4 MByte. Damals ging das noch als "high-speed" und "high capacity" durch. Heute kann man angesichts von handtaschenfreundlichen Terabyte-Festplatten mit Dutzenden MByte/s Schreib- und Leserate nur darüber schmunzeln, zumal sich die Banddaten im Unterschied zu Festplatten nicht wahlfrei schreiben und lesen lassen, sondern nur linear. Im schlimmsten Fall dauerte ein Zugriff auf ein einziges Datum zwei Minuten — so lange brauchte die 726, um die 720 Meter Band komplett durchzuspulen.

Aber auch bei Bandlaufwerken ist die Entwicklung nicht stehen geblieben. Zwar findet die Aufzeichnung immer noch linear statt, doch dank moderner Aufzeichnungsverfahren passen nun 1,5 TByte auf ein Band (zum Beispiel LTO der fünften Generation), die sich mit 140 MByte/s lesen lassen. Prototypen von Bandkassetten speichern schon bis zu 38 TByte. Eine einzelne LTO5-Kassette misst nur 10,5 cm × 10 cm × 2 cm, das dazugehörige Laufwerk passt in den 5,25"-Schacht eines PCs. Die maximale Zugriffszeit liegt allerdings immer noch bei rund zwei Minuten.

Wenn es nicht auf kurze Zugriffszeiten ankommt, wohl aber darauf, große Datenmengen zu geringen Kosten für lange Zeit archivieren zu müssen, sind Bänder immer noch das Mittel der Wahl. Ein LTO5-Tape für 1,5 TByte unkomprimierte Daten kostet kaum mehr als 50 Euro, eine vergleichbar große Festplatte in etwa das doppelte. Moderne Bänder halten sich 30 Jahre und mehr. Eine Festplatte hält das in der Regel nicht durch, auch dann nicht, wenn man sie stromlos im Safe lagert. Deshalb werden Bänder noch lange in Betrieb sein, etwa bei Behörden, Banken oder in Bibliotheken.

Quelle : www.heise.de
Titel: 25 Jahre GIF
Beitrag von: SiLæncer am 16 Juni, 2012, 18:20
Das Bildformat GIF (Graphics Interchange Format) wird fünfundzwanzig: Am 15. Juni 1987 führte der US-Provider CompuServe das Bildformat ein, um Farbbilder platzsparend speichern und übertragen zu können. Das gelang durch eine Beschränkung auf 256 Farben und eine LZW-Komprimierung, sodass GIF-Bilder grundsätzlich verlustfrei komprimiert sind.

Bereits die erste GIF-Version 87a enthielt viele Feinheiten: So ließen sich Bilder interlaced abspeichern, damit Webbrowser schon während des Ladens ein grobes Bild darstellen können, das mit Fortschreiten der Übertragung immer feiner auflöst – zu Modemzeiten ein nicht zu verachtender Vorteil. Auch lassen sich mehrere Einzelbilder hintereinander in eine Datei speichern, was gleich zwei Anwendungszwecke hat: Zum einen kann man Browser sie hintereinander anzeigen lassen, was daumenkino-ähnlich zu Animationen führt. Zum anderen kann jedem der Einzelbilder eine andere Farbpalette zugrunde liegen; durch gleichzeitiges Anzeigen der schachbrettartig angeordneten Einzelbilder erhielt man Gesamtbilder mit mehr als 256 Farbtönen. Die Hauptneuerung von GIF89a war ein Eintrag in der Farbtabelle für Transparenz. Damit ließen sich scheinbar nicht-rechteckige Grafiken erzeugen, bei denen außerhalb des Motivs der Hintergrund durchschien.

Mit GIF ist ein großer Lizenz- und Patentstreit verbunden: Die Firma Unisys hatte 1985 ein Patent auf die LZW-Komprimierung zugesprochen bekommen und setzte es ab 1994 ein, um von CompuServe Lizenzgebühren einzufordern. CompuServe zahlte und durfte in Gegenzug die Lizenz an Hersteller von Software, die GIF verwendete, weitergeben. Später lizenzierte Unisys auch selbst und forderte ab 1999 auch Lizenzgebühren von Herstellern freier Software. Sie waren bis dato ausgenommen, doch Widerstand der Open-Source-Anhänger hatte sich schon früher gerührt und schließlich zu Entwicklung und Erfolg des Bildformats PNG (Portable Network Graphics) geführt. Dessen Ableger MNG für Animationen konnte sich allerdings nicht durchsetzen – hier hat bislang Adobes Flash eine Vormachtstellung.

Das Unisys-Patent lief je nach Land anno 2003 oder 2004 aus, einige andere Patente im Jahr 2006, sodass GIF sich mittlerweile lizenzfrei einsetzen lässt.

Quelle : www.heise.de
Titel: Herzlichen Glückwunsch! 40 Jahre Atari
Beitrag von: SiLæncer am 27 Juni, 2012, 14:00
Hach, die Älteren von uns werden sich sicher erinnern. Atari! Die Firma wurde heute auf den Tag vor 40 Jahren in Kalifornien gegründet. Eigentlich sollte der Name der Computerfirma Syzygy lauten, zum Glück für alle Hasser des Zungenbrechers war der Name geschützt und so Atari geboren. Atari war eine Firma, die die Spieler und Freaks über viele Jahre mit unzähligen Spielen belieferte, Klassiker wie PONG!, Defender, Breakout, Driver & Co nur auszugsweise erwähnt. 1975 arbeiteten sogar Steve Jobs und Steve Wozniak, die späteren Mitgründer von Apple Computer, kurz für Atari.


Nicht nur Konsolen wie die Atari 2600 hatte man am Start, sicherlich werden viele noch den Atari ST in seinen verschiedenen Variationen kennen und lieben gelernt haben. Der Atari ST wurde damals übrigens schon gerne für elektronische Musik eingesetzt – Silicon Dream zum Beispiel setzte unter anderem auf diese Plattform. Ich selber war zwar eher der Commodore-Liebhaber, hatte aber natürlich auch Gerätschaften von Atari in der Mache. Den Namen Atari gibt es heute immer noch, ist aber nicht mehr mit der damaligen Firma zu vergleichen – Mitte der 90er war Feierabend mit Atari, so wie wir es kannten. In diesem Sinne: vielen Dank an Atari! Eure Geräte haben mir viele, viele Stunden wunderbarstes Zocken geschenkt!

Quelle: Caschys Blog (http://stadt-bremerhaven.de)
Titel: Ältester funktionierender Computer wieder im Dienst
Beitrag von: SiLæncer am 21 November, 2012, 17:20
In Großbritannien wird der weltweit älteste noch funktionierende Computer wieder hochgefahren. Das System namens WITCH wird seine Dienste allerdings zukünftig nur noch für die Besucher eines Museums verrichten.

Das "Wolverhampton Instrument for Teaching Computing from Harwell" (WITCH) wurde im Jahr 1951 in einer Zeit in Betrieb genommen, als weltweit gerade einmal ein gutes Dutzend Rechner im Einsatz waren - jeweils individuell von Hand entworfen und hergestellt. Leisten konnten sich dies damals nur Behörden und einige Großunternehmen.

Über einen Zeitraum von 61 Jahren blieb der Rechner vollständig erhalten, während alle anderen Systeme aus dieser Zeit entweder inzwischen zerstört sind oder schon relativ früh dem Recycling zugeführt wurden, um Materialen für weiterentwickelte Maschinen zu gewinnen. WITCH wurde damals für Forschungsaufgaben in der Atomphysik eingesetzt.

Die heute bekannten Mikrochips gab es zu dieser Zeit noch nicht. Deshalb wurde das System aus Telefon-Relays und hunderten Vakuumröhren, die jeweils eine Speicherzelle darstellten, zusammengesetzt. Die Ein- und Ausgaben erfolgten über Lochstreifen.

(http://scr.wfcdn.de/8134/WITCH-1353506558-0-1.jpg)(http://scr.wfcdn.de/8134/WITCH-1353506566-0-1.jpg)(http://scr.wfcdn.de/8134/WITCH-1353506569-0-1.jpg)

Bildertsrecke (http://winfuture.de/screenshots/WITCH-8134-1.html)

Die Aufgabe von WITCH bestand damals im Gegensatz zu anderen Computern dieser Zeit oder erst recht der Moderne gar nicht darin, unbedingt schneller zu rechnen als ein Mensch - dafür aber zuverlässiger. Das System arbeitet so nicht unbedingt schneller als ein geübter Mathematiker mit einem mechanischen Rechensystem in der damaligen Zeit. Bei der Konstruktion galt das Augenmerk eher seiner Zuverlässigkeit. So konnte er seine Aufgaben stur in tagelanger ununterbrochener Arbeit berechnen - wo bei einem Menschen irgendwann schlicht Flüchtigkeitsfehler aufgetreten wären.

Nach einer dreijährigen Rekonstruktionsarbeit wird WITCH im National Museum of Computing im englischen Buckinghamshire nun wieder in Betrieb genommen. "Wenn man es in Betrieb sieht, kann man in die innere Arbeitsweise eines Computers eintauchen - etwas, das bei den Maschinen von heute unmöglich ist", erklärte Kevin Murrell, Kurator des Museums.

Quelle : http://winfuture.de/
Titel: Gaming-Pionier Atari ist pleite
Beitrag von: SiLæncer am 22 Januar, 2013, 05:45
(http://static.gulli.com/media/2013/01/thumbs/370/atari-logo.jpg)
Pong und Asteroids. Für diese Spiele hat sich das US-amerikanische Unternehmen Atari einen Namen gemacht. Nun muss der Pionier der Unterhaltungselektronik einen Insolvenzantrag stellen. Die US-Tochter Atari Inc. und drei weitere Ableger reichten die entsprechenden Unterlagen am gestrigen Sonntag in New York ein. Nach über 40-jährigem Bestehen ist das Traditionsunternehmen nun pleite.

Atari hat am gestrigen Sonntag einen Insolvenzantrag in New York gestellt. Das US-amerikanische Traditionsunternehmen ist pleite. Seit seinem 40-jähhrigem Bestehen kämpft der Unterhaltungselektroniker schon seit Jahrzehnten mit erheblichen finanziellen Schwierigkeiten. Die Kassen klingelten in den Gründungsjahren, als die Verantwortlichen mit Pong oder Asteroids an den Start gingen. Vierzig Jahre später ist von einem Geldregen keine Spur zu sehen. Nun möchte sich das Unternehmen unter Schutz vor seinen Gläubigern sanieren.

Ob der Insolvenzantrag das Ende der Spieleschmiede bedeutet, ist ungewiss. Medienberichten zufolge möchte man den Bestand mit Neustrukturierung der Firmenverwaltung ermöglichen. Während der Großteil des Atari-Geschäfts in den USA angesiedelt ist, befindet sich der Firmensitz in Paris. Dieser Zweiteilung möchten die US-Tochter Atari Inc. mit drei weitere Firmen entgegenwirken. Man möchte sich vom Pariser Firmensitz trennen und das Geschäft mit Hilfe neuer Insvestoren eigenständig weiterführen.

Die Geschichte des Traditionsunternehmens Atari reicht bis in die Anfänge der 1970er-Jahre. Gegründet im Juni 1972 setzte die Marke bereits Ende November 1972 einen Meilenstein für Computerspiel- und Videospiele: Am 29.11.1972  stellte Gründer Nolan Bushnell den ersten Spielautomaten "Pong" vor. Jenes Spiel, das sowohl den offiziellen Geburtstag der Videospiele als auch den massentauglichen Markt der virtuellen Spiele einleitete. Bushnell, Mitbegründer des damals noch unbekannten und ruhmlosen Unternehmens Atari, machte mit einem Spiel auf sich aufmerksam, das noch bis zum heutigen Tage die Gaming-Kultur prägen sollte. Das Aus eines solchen kulturträchtigen Unternehmens wäre äußerst schade.

Quelle : www.gulli.com
Titel: Zehn Jahre 64-Bit-Technik von AMD
Beitrag von: SiLæncer am 22 April, 2013, 19:45
(http://www.heise.de/imgs/18/1/0/1/3/1/5/3/Sledgehammer-800-4ecabdc8f4a2a4c8.jpeg)
Zehn Jahre x86-64: Mit dem Opteron alias Sledgehammer (Vorschlaghammer) präsentierte AMD am 22. April 2003 den ersten x86-Prozessor mit 64-Bit-Erweiterungen. Angekündigt hatte der damalige AMD-Vizepräsident Fred Weber die später auch als x64 bezeichnete Technik bereits dreieinhalb Jahre zuvor auf dem Microprocessor Forum 1999.

Der erste Desktop-PC-Prozessor mit 64-Bit-Erweiterung erschien im September 2003: Der Athlon 64 alias Clawhammer für Mainboards mit dem "Socket 754". Gleichzeitig kam der Athlon 64 FX als enger Verwandter der Opterons für Sockel-940-Boards.

Der ganze Artikel (http://www.heise.de/newsticker/meldung/Zehn-Jahre-64-Bit-Technik-von-AMD-1847040.html)

Quelle : www.heise.de
Titel: Happy Birthday 65 83 67 73 73
Beitrag von: SiLæncer am 17 Juni, 2013, 17:34
Vor 50 Jahren, am 17. Juni 1963, wurde der American Standard Code for Information Interchange (ASCII) von dem X3 genannten Kodierungs-Ausschuss der American Standards Association (ASA) veröffentlicht. Der "American Standard Code for Information Interchange" gehört nach einer "ausländischen" Erweiterung im Jahre 1968 zu den erfolgreichsten Standards der Welt. ASCII wurde federführend von Bob Bemer entwickelt, dem wir auch die ESC-Taste zu Übermeittlung besonderer ASCII-Steuerbefehle verdanken.

Im 50. Lebensjahr erfreut sich der Jubilar bester Gesundheit. Eine ausführliche Würdigung des Geburtstagskindes gibt es bei den Kollegen von Telepolis. Die nötigen Sträußchen tippt man selber ein oder kopiert sie schamlos. Als Geburtstagssong bietet sich Still Alive (and the Science gets done) an.

72 97 112 112 121 32 66 105 114 116 104 100 97 121 33 33 33

Siehe dazu auch bei Telepolis:

    Return to ASCII (http://www.heise.de/tp/artikel/39/39215/1.html). Der American Standard Code for Information Interchange wird 50 Jahre alt.

Quelle : www.heise.de
Titel: 30 Jahre Windows: Ein sehr erfolgreicher Fehlschlag
Beitrag von: SiLæncer am 11 November, 2013, 21:45
Am 10. November 1983 stellte Microsoft-Gründer Bill Gates Windows 1.0 erstmals vor. Es dauerte weitere zwei Jahre, bis das Betriebssystem auf den Markt kam und die erste Version tat sich im Markt auch verdammt schwer. Bis heute hat sich Windows jedoch zu einer einzigartigen Erfolgsgeschichte für Microsoft entwickelt.

Als Bill Gates gestern vor dreißig Jahren vor die Öffentlichkeit trat, klang das von ihm beschriebene Produkt ebenso ungewöhnlich, wie Windows 8 nach seiner ersten Präsentation auf die meisten Beobachter wirkte. Microsoft arbeite an der ersten Version eines neuen Betriebssystems, das den Codenamen "Interface Manager" trage, der auch als endgültiger Name in Betracht komme, hieß es damals.

Letztlich entschied man sich jedoch für die Bezeichnung "Windows", weil diese am besten die "Boxen" oder Computing-"Fenster" (englisch eben "windows") beschrieb, die die Grundlage des neuen Systems bilden sollten. Windows wurde zwar 1983 bereits vorgestellt, doch sollte es noch bis zum 20. November 1985 dauern, bis die finale Version auf den Markt kam.

Der ganze Artikel (http://winfuture.de/news,78786.html)

Quelle : http://winfuture.de/
Titel: 30 Jahre Macintosh: Als 1984 nicht wie "1984" war...
Beitrag von: SiLæncer am 24 Januar, 2014, 13:50
Am 24. Januar 1984 stellte Steve Jobs den Ur-Mac mit 128 KByte vor und zielte damit gegen die "grauen Herren in ihren grauen Anzügen mit ihren grauen Rechnern". Eine kurze Apple-Zeitreise.

Wenn die Geschichte stimmt, die der frühe Apple-Programmierer Andy Hertzfeld zu erzählen weiß, war der 24. Januar 1984 für das Macintosh-Team kein Tag wie jeder andere. Statt wie üblich gegen 10 Uhr bei Apple aufzuschlagen, kamen die Entwickler bereits um 7 Uhr 30 in das Bürogebäude Bandley 3, um dann gemeinsam zum Flint Center in Cupertino zu marschieren, das Apple für sein Aktionärstreffen und die Macintosh-Präsentation gebucht hatte.


Steve Jobs, mit seinen nicht ganz 29 Jahren unzweifelhafter Anführer der Gruppe und "Master of Ceremonies", hatte am Wochenende zuvor ein einziges Mal durchgängig geprobt – laut Hertzfeld hasste er die Perfektionierung seiner Auftritte durch ständiges Wiederholen damals noch. Dabei gab es noch jede Menge Probleme beim Demo-Teil der großen Präsentation, die den Mac unter anderem sprechen ließ (siehe Video). Und laut Aussagen des damaligen Apple-Chefs John Sculley hatte Jobs richtig Bammel, dass etwas schief gehen könnte.

Der ganze Artikel (http://www.heise.de/newsticker/meldung/30-Jahre-Macintosh-Als-1984-nicht-wie-1984-war-2089316.html)

Quelle : www.heise.de
Titel: Quelltexte von MS-DOS und Word for Windows veröffentlicht
Beitrag von: SiLæncer am 25 März, 2014, 19:53
Microsoft hat die Quelltexte von MS-DOS 2.0 sowie der Textverarbeitung Word for Windows 1.1a einem kalifornischen Computermuseum gestiftet, das sie nun zum öffentlichen Download anbietet.

Zusammen mit dem Computer History Museum im kalifornischen Mountain View gewährt Microsoft der breiten Öffentlichkeit erstmals einen Blick auf die Quelltexte von frühen Versionen des Betriebssystems MS-DOS sowie des Textverarbeitungsprogramms Word for Windows. Beide Download-Pakete stehen unter einem "Microsoft Research License Agreement", das es Benutzern erlaubt, die Dateien zu studieren, zu übersetzen, zu verändern und die Software auf echter Hardware oder in Emulatoren zu betreiben, aber nur zu nicht-kommerziellen Experimentier-, Lehr- und Lernzwecken. In Veröffentlichungen dürfen bis zu 50 Zeilen Quelltext zitiert werden.

Der ganze Artikel (http://www.heise.de/newsticker/meldung/Quelltexte-von-MS-DOS-und-Word-for-Windows-veroeffentlicht-2154723.html)

Quelle : www.heise.de
Titel: 25 Jahre Gameboy: Nintendos kultisch verehrte Daddelkiste
Beitrag von: SiLæncer am 21 April, 2014, 12:56
Der Gameboy ist gut gealtert - heute wird mit der Konsole Musik gemacht, und selbst Spieleprogrammierer werden beim Anblick des grauen 8-Bit-Klotzes nostalgisch.

Heute vor 25 Jahren ist in Japan ein unansehnlicher grauer Plastikblock auf den Markt gekommen. Ausgestattet mit schon damals veralteter Elektronik und einem kleinen, monochromen Bildschirm ohne Hintergrundbeleuchtung war der Gameboy von Nintendo im Frühjahr 1989 wahrlich kein Technikwunder.

Trotzdem wurde Gemu Boi - so hieß das Gerät in Japan - zur erfolgreichsten mobilen Spielkonsole der neunziger Jahre und ließ technisch überlegene Mitbewerber wie den Atari Lynx oder das Sega Game Gear weit hinter sich. Mit der mobilen Konsole und Spielen wie Tetris und später Pokémon dominierte Nintendo lange den mobilen Spielemarkt.

Der ganze Artikel (http://www.golem.de/news/25-jahre-gameboy-nintendos-kultisch-verehrter-elektroschrott-1404-105968.html)

Quelle : www.golem.de
Titel: 50 Jahre BASIC: die Allzweck-Programmiersprache für Anfänger feiert Jubiläum
Beitrag von: SiLæncer am 01 Mai, 2014, 06:15
Die Erfinder der Programmiersprache BASIC schufen tatsächlich das, was sie sich erhofft hatten: die einfache und jedem zugängliche Programmierung.

Der heutige 1. Mai markiert zugleich den 50. Geburtstag der imperativen Programmiersprache BASIC. Denn am 1. Mai 1964, 4 Uhr Ortszeit, liefen am Darthmouth College in New Hampshire auf einem Mainframe von General Electric die ersten BASIC-Programme. John G. Kemeny und Thomas E. Kurtz, die Erfinder der "symbolischen Allzweck-Programmiersprache für Anfänger" (Beginner's All-purpose Symbolic Instruction Code), hatten BASIC entwickelt, um ihren Studenten der Elektrotechnik den Einstieg in die Programmierung zu vereinfachen. Dafür sprach auch, dass die Sprache auf Wunsch ihrer Schöpfer von Anfang an im Lehrbetrieb kostenlos eingesetzt werden durfte – im Gegensatz zu anderen Programmiersprachen der damaligen Zeit, für deren Nutzung man mehrere 1000 US-Dollar zahlen musste.

Der ganze Artikel (http://www.heise.de/newsticker/meldung/50-Jahre-BASIC-die-Allzweck-Programmiersprache-fuer-Anfaenger-feiert-Jubilaeum-2178897.html)

Quelle : www.heise.de
Titel: 40 Jahre Altair: Der Startschuss zur Mikrocomputer-Revolution
Beitrag von: SiLæncer am 29 November, 2014, 06:48
Vor 40 Jahren wurde das Heft der Zeitschrift "Popular Electronics" veröffentlicht, das den bahnbrechenden 8-bit-Rechner Altair 8800 ankündigte.

(http://3.f.ix.de/scale/geometry/600/q75/imgs/18/1/3/8/6/7/1/3/alt-50782db56ab50b75.jpeg)

Heute vor vierzig Jahren, am 29. November 1974, einem Freitag, ging die Januar-Ausgabe der US-amerikanischen Zeitschrift Popular Electronics zum Drucker, was die Kongressbibliothek in Washington auf der betreffenden Karteikarte als "Pub. Date" festhielt. Abonnenten und Kioske erhielten die fertigen Hefte in der ersten Dezemberhälfte, und die Welt erfuhr vom "First Minicomputer Kit" Altair 8800, mit dem lötkolben-erprobte Bastler den teuren kommerziellen Modellen von DEC, Data General, Wang und anderen Herstellern Paroli bieten konnten.

Die Präsentation des kleinen Rechners – den Begriff Mikrocomputer gab es noch nicht – entsprang der Konkurrenz der in New York ansässigen Fachmagazine für Hobby-Elektroniker. In der Ausgabe für den Juli 1974 hatte Radio-Electronics schon den Mark-8 des Studenten Jonathan A. Titus vorgestellt, einen Bausatz für einen 8-bit-Computer mit dem Prozessor Intel 8008. Allerdings waren die per Post verschickten Teile nicht komplett und Interessenten mussten weitere Komponenten hinzukaufen.

Popular Electronics machte es da besser. Chefredakteur Arthur Salsberg und Technikspezialist Leslie Solomon griffen zu einem Entwurf des 33-jährigen Ingenieurs Edward Roberts, der in Albuquerque (US-Bundesstaat New Mexico) die Taschenrechner-Firma MITS betrieb. Roberts konstruierte um den Chip Intel 8080, den er für 75 Dollar erhielt, einen schubladengroßen Computer mit einem Arbeitsspeicher von 256 Byte und einem Preis von 397 Dollar als Bausatz beziehungsweise 498 Dollar fertig montiert.

Die Namenswahl überließ Ed Roberts den Redakteuren von Popular Electronics. Die gefundene Bezeichnung sollte die Star-Qualität des Rechners unterstreichen – Altair gehört zu den populärsten Sternen am Nachthimmel. Einen Bezug zur Serie "Star Trek", wie manchmal behauptet, gab es nicht. Der Computer wurde im Januar-Heft und in der Februar-Nummer ausführlich beschrieben, das Cover zeigte aber nur eine ältere Frontplatte, da das für die Redaktion bestimmte Gerät beim Transport verschwand.

Die Artikel der Popular Electronics brachten der Firma MITS Tausende von Bestellungen, und der Altair gilt heute als Auslöser der Mikrocomputer-Revolution. Das Januar-Heft wurde außerdem vom Programmierer Paul Allen in Boston gekauft, der es an seinen Kumpel weitergab, den Harvard-Studenten Bill Gates. Unterstützt von Monte Davidoff schrieben Gates und Allen für den Rechner einen BASIC-Interpreter, der im Juli 1975 von MITS übernommen wurde und 1976 zur Gründung der Firma Microsoft in Albuquerque führte. Und der Rest ist, wie es öfters heißt, Geschichte.

Quelle : www.heise.de
Titel: Mythos des Silicon Valley: 40 Jahre Homebrew Computer Club
Beitrag von: SiLæncer am 04 März, 2015, 19:41
Am 6. März 1975 trafen sich 32 junge Männer in einer Garage in Menlo Park (Kalifornien), um über Mikrocomputer zu sprechen. Daraus wurde eine Veranstaltungsreihe, die der neuen Technologie entscheidende Impulse gab.

Es war ein dunkler und regnerischer Abend, an dem am 5. März 1975 in Menlo Park südöstlich von San Francisco 32 computerbegeisterte junge Männer zusammenkamen, um sich über ihr Hobby auszutauschen. Das durch Flugzettel und Mundpropaganda vorbereitete Meeting fand in der Garage des Ingenieurs und Programmierers Gordon French statt. Nach intensiven Diskussionen beschloss man eine Fortsetzung vierzehn Tage später und schuf damit eine jahrelange Folge von Veranstaltungen, die als Homebrew Computer Club in die Technikgeschichte eingehen sollte.

Die Basis des Eigenb(r)au-Vereins bildete die wirtschaftliche Ausrichtung der Region, die durch Elektronik- und Halbleiterfirmen geprägt war und schon in den frühen 1970er Jahren den Spitznamen Silicon Valley erhielt. Die nahe Stanford-Universität und der lockere kalifornische Lebensstil führten daneben zu neuen Formen der Kommunikation wie dem People’s Computer Center, das Time-Sharing-Plätze und PDP-8-Minicomputer anbot, oder dem alternativen Technikverlag People's Computer Company.

Der ganze Artikel (http://www.heise.de/newsticker/meldung/Mythos-des-Silicon-Valley-40-Jahre-Homebrew-Computer-Club-2567331.html)

Quelle : www.heise.de
Titel: Liebesbrief-Wurm ILOVEYOU feiert 15. Geburtstag
Beitrag von: SiLæncer am 04 Mai, 2015, 19:45
Wir schreiben das Jahr 2000. Ein Internet-Wurm tarnt sich als Liebesbrief und versetzt die halbe Welt in Angst und Schrecken...

(http://1.f.ix.de/scale/geometry/600/q75/imgs/18/1/4/8/2/5/4/7/iloveyou-9f3e413345d3a47a.jpeg)

Da kommt Viren-Nostalgie auf: Heute vor 15 Jahren verbreitete sich der ILOVEYOU-Wurm von den Philippinen aus rasant im Netz und löste allerlei Panik aus. Nicht nur die Niedersächsische Landesregierung, sondern auch CIA, das Pentagon und das Britische Parlament waren betroffen. Dabei handelte es sich um ein einfaches VB-Skript, das sich mit vorgestelltem .TXT als Textdatei tarnte – selbst vor 15 Jahren war das nichts Besonderes. Allerdings schaffte der Schädling es wohl, viele Opfer zu einem Klick zu verleiten, in dem er sich als Liebesbrief ausgab. Denn wer will nicht geliebt werden? Einmal im System des Opfers, verschickte er sich dann an das gesamte Adressbuch des Nutzers, mit dessen E-Mail-Adresse als Absender.

Mit großem Erfolg, wie heise online am 4. Mai 2000 berichtete: "Wie ein Lauffeuer verbreitete sich der am Donnerstag entdeckte E-Mail-Wurm LoveLetter um die Welt, legte Mail-Server und Firmennetze lahm, zerstörte Dateien und verursachte zeitweise massive Staus im Internet. Betroffen waren zahlreiche Großunternehmen sowie Behörden und Regierungen, die teilweise ihre Netze außer Betrieb nahmen, um die weitere Verbreitung zu stoppen. Nach einem Bericht der BBC waren schätzungsweise zehn Prozent aller britischen Unternehmen von dem Virus betroffen." 15 Jahre später lockt eine einfache Liebeserklärung per E-Mail niemanden mehr hinterm Ofen hervor.

Quelle : www.heise.de
Titel: Vor 25 Jahren: Windows 3.0 erscheint
Beitrag von: SiLæncer am 22 Mai, 2015, 14:09
Am 22. Mai vor 25 Jahren präsentierte Bill Gates Windows 3.0 unter dem Slogan "Witness the Transformation". Windows 3.0 transformierte Microsoft von einem Software-Anbieter unter vielen zu einem Konzern mit Monopolstellung.

(http://2.f.ix.de/scale/geometry/600/q75/imgs/18/1/4/9/9/0/2/6/win30logo-ffbb6353b9b13c36.gif)

Ton, Kamera, Licht, Action! mit einer 2,5 Millionen Dollar teuren Show, die per Satellit in sechs weitere US-Städte und ins kanadische Toronto übertragen wurde, präsentierte Bill Gates die grafische Oberfläche Windows 3.0. Zu krachender Stampfmusik zeigte Gates im City Center Theater in New York, wie man Fenster verschiebt, Icons anklickt und den Bildschirm-Hintergrund verändert. Farben! Fonts! Sexy aussehende Schaltflächen! Nach langen Jahren abseits der Öffentlichkeit zeigte sich Microsoft-Mitgründer Paul Allen vor den Kameras und demonstrierte seine Software ToolBook: Programmieren mit Windows 3.0 ist "kinderleicht".

Der ganze Artikel (http://www.heise.de/newsticker/meldung/Vor-25-Jahren-Windows-3-0-erscheint-2662355.html?wt_mc=rss.ho.beitrag.atom)

Quelle : www.heise.de
Titel: 20 Jahre Fast Ethernet
Beitrag von: SiLæncer am 14 Juni, 2015, 10:53
Wer heute an Vernetzung denkt, der denkt an Ethernet und Sternverkabelung mit Switches, Patchkabeln und Steckern, deren Plastiknasen leicht abbrechen. Das war nicht immer so, denn erst mit dem Standard für 100Base-TX wurde Ethernet massentauglich.

(http://3.f.ix.de/scale/geometry/600/q75/imgs/18/1/5/1/1/0/3/1/rj45-stecker-a9b410dd53e1315d.png)

Einen Computer ins LAN zu hängen ist heute so einfach wie ihn mit Strom zu versorgen: Der RJ45-Stecker am einen Ende des Patchkabels kommt in die Buchse am Rechner, der Stecker des anderen Endes in die Wandbuchse oder in den Switch und schon läuft's. Vor zwei Dekaden war das noch etwas komplizierter – bevor das Fast Ethernet standardisiert wurde.

Ethernet war zu Beginn organisiert wie Funk. Im Namen steckt noch die Bezeichnung Äther. CSMA/CD hieß das Protokoll: Wer Daten senden will, horcht ins Kabel (Carrier Sense), wer senden will, sendet (Multiple Access), hört aber, ob jemand anderes gleichzeitig sendet (Collision Detect). Alle Stationen teilen sich den Übertragungskanal (Shared Medium). Kommt es zu einer Kollision, müssen beide Teilnehmer warten und es später erneut probieren. Diese Methode wurde aus dem ALOHA-Netz entlehnt.

(http://2.f.ix.de/imgs/18/1/5/1/1/0/3/1/mau-d635bf8f6c6865f2.png)
Bei Ethernet hingen alle Stationen bus-artig am gleichen Draht. Das war zunächst ein dickes Yellow Cable (RG8-Koaxkabel, 10Base-5), das später von einem dünneren Thinwire (RG58, 10Base-2) abgelöst wurde. Das dicke Kabel musste für den Anschluss einer Station angebohrt werden, um durch die Abschirmung auf den eigentlichen Draht zu gelangen – was den Hohepriestern der IT-Abteilung vorbehalten war. Zwischen Yellow Cable und Netzwerkkarte vermittelte eine MAU (Media Attachment Unit).

Mit Thinwire gab es dann fertig konfektionierte Kabel unterschiedlicher Länge, BNC-Steckern und T-Stücken. Der Fuß des T-Stücks kam an die Netzwerkkarte, die Arme nahmen Kabelenden auf, die zu den benachbarten Stationen führten. Wie beim Yellow Cable mussten die Enden einer Thinwire-Strecke mit Abschlusswiderständen terminiert werden, damit die Wellen nicht reflektiert und damit die Datensignale unlesbar wurden. Stichstrecken und Abzweigungen waren verboten. Der Standardfehler war, das Kabel an der letzten Station direkt in die Netzwerkkarte zu stecken, ohne T-Stück und Abschlusswiderstand. Bei einem Wackelkontakt in der Mitte zerfiel das Netzwerk in zwei Hälften: Die Nutzer auf einer Seite ärgerten sich dann, dass der Server auf der anderen schon wieder nicht erreichbar war.

Einer unter vielen

(http://1.f.ix.de/imgs/18/1/5/1/1/0/3/1/ne2000-t-stueck-kabel-b87dfe022959abec.png)
Zum Ethernet mit Thinwire gab es vor zwanzig Jahren zahlreiche Alternativen: So propagierte IBM beispielsweise den Token Ring, bei der jede Station auf ein Frei-Token warten musste, bevor sie senden durfte. Kollisionen waren ausgeschlossen und nach jeder Aussendung eines Datenpaketes musste der Sender ein neues Frei-Token erzeugen. Um die fehleranfällige Bus-Verkabelung von Thinwire zu ersetzen, wurde mit 10Base-T ein Ethernet über Twisted-Pair-Kabel mit RJ45-Steckern standardisiert. Dieses heute noch gebräuchliche Kabel enthält vier Paare verdrillter Adern, von denen 10Base-T nur zwei Paare nutzte. Der Vorläufer StarLAN funktionierte sogar über ein einziges Paar, also das gleiche Medium, das auch Analogtelefone verwenden.

10Base-T wurde sternverkabelt, mit einem passiven Hub in der Mitte. Diese Hubs hatten zu Anfang fast immer auch einen BNC-Verbinder, an den sich ein Thinwire-Netz anschließen ließ. Um 1:1 durchgeschaltete Kabel nutzen zu können, hatten PCs und andere Endpunkte eine andere Belegung als die Hubs. Wollte man diese zusammenschalten, war ein gekreuztes Kabel nötig oder ein umschaltbarer beziehungsweise designierter Port. Auch hier lag eine häufige Fehlerquelle, weswegen bei Fast Ethernet schnell die automatische Erkennung und Umschaltung (MDI-X) nachgerüstet wurde.

(http://2.f.ix.de/imgs/18/1/5/1/1/0/3/1/hub-koax-tp-8635e27b124d83dd.png)
Weil 10Base-T immer noch als Shared Medium arbeitete, war durch das Zugriffsprotokoll CSMA/CD der nutzbare Durchsatz trotz einer Rohdatenrate von 10 MBit/s (das 10 in 10Base-T) auf rund 40 Prozent begrenzt: Mehr als etwa 4000 kBit/s oder 500 kByte/s gingen nicht durchs Kabel, was aus heutiger Sicht wenig ist, denn viele DSL-Zugänge liefern im Downstream mehr.

Endlich einfach und schnell

Fast Ethernet (100Base-TX) nutzte die gleiche Verkabelung wie 10Base-T. Mit aktiven Komponenten – Switches statt Hubs – und der Verkabelung mit vier Adern wurde gleichzeitiger Datenverkehr in beide Richtungen möglich (Full duplex). Ein verdrilltes Aderpaar diente dabei zum Senden und ein weiteres Paar zum Empfangen. So konnte nicht nur die Kollisionserkennung entfallen, sondern Ethernet auch das Problem der Sättigung bei zu hoher Auslastung auf dem Kabel überwinden: Der maximale Nutzdurchsatz kletterte auf 94 MBit/s, also rund 11,5 MByte/s.

Die Standardisierung als IEEE-Norm 802.3u vor genau 20 Jahren bildete dann die Grundlage dafür, dass Produkte verschiedener Hersteller miteinander kommunizieren können. Der Preisrutsch setzte ein: Anno 1995 kostete eine Fast-Ethernet-PCI-Karte 500 DM, also 256 Euro, heute nicht mal 4 Euro.

Fast Ethernet konnte sich auch deswegen gegen konkurrierende Techniken wie TCNS oder FDDI durchsetzen, weil es abwärtskompatibel war: Am selben Switch ließen sich mit denselben Kabeln Netzwerkadapter mit 10 MBit/s und 100 MBit/s betreiben. Aktuelle Switches für Firmen transportieren sogar 10.000 MBit/s übers Twisted-Pair-Kabel. Und die Ethernet-Evolution ist noch lange nicht zu Ende. Wer sich für Details des Ethernet-Gesamtstandards interessiert, der von 10 MBit/s bis 100 GBit/s reicht, hat einiges zu lesen: Die aktuelle, gratis erhältliche Version IEEE 802.3-2012 besteht aus sechs PDF-Dateien von zusammen 3748 Seiten plus drei Nachträgen.

Quelle : www.heise.de
Titel: 30 Jahre Amiga: Der Rechner, der die Heimcomputerszene aufmischte
Beitrag von: SiLæncer am 23 Juli, 2015, 13:46
Heute vor 30 Jahren stellte Commodore den Amiga 1000 vor und damit die Heimcomputerszene auf den Kopf ... für manche sogar bis heute.

(http://1.f.ix.de/scale/geometry/600/q75/imgs/18/1/5/5/0/4/8/3/IMG_20150722_172143-ce791b3bf2d5037a.jpeg)

Der Amiga 1000 war der größte Schritt vom 8-Bit- in den 16-Bit-Bereich: Standard-Auflösung von 320 × 256 in 32 Farben (gleichzeitig; 4096 im Hold&Modify-Modus) – da konnte selbst der direkte Konkurrent Atari ST nicht mithalten.

Also betonte Commodore bei der Vorstellung im New Yorker Lincoln Center vor allem die Multimediafähigkeiten des Rechners: Die Firma ließ keinen Geringeren als Pop-Art-Künstler Andy Warhol die überlegenen Fähigkeiten des Amiga demonstrieren, indem er Live-Bilder von Sängerin Debbie Harry am Amiga im Popart-Stil verfremdete.

Neben einer feierlichen Deutschland-Vorstellung in der Alten Oper in Frankfurt am Main war er einer der Stars auf der ersten eigenständigen CeBIT 1986. Oder wie jeamand im Heise-Forum umschrieb: "Der Amiga jedenfalls war 1985 etwa wie ein Stück Hardware, das man in der Wüste von Nevada aus einem abgestürzten UFO geborgen hatte.“ Die Redakteure der c't formulierten es hingegen beim Test in Ausgabe 1/86 etwas zurückhaltender: "Neben einer hohen Auflösung besticht der Commodore-Rechner dank zusätzlicher Hardware durch eine in dieser Klasse konkurrenzlos schnelle Grafik.“

Der ganze Artikel (http://www.heise.de/newsticker/meldung/30-Jahre-Amiga-Wir-gratulieren-2752244.html)

Quelle : www.heise.de
Titel: 30 Jahre Windows: Der lange Weg zum Durchbruch
Beitrag von: SiLæncer am 20 November, 2015, 18:29
Auf den Tag vor 30 Jahren präsentierte Microsoft in den USA Windows 1.01, begleitet von der größten Werbekampagne der jungen Firma. Nach mehreren weiteren Anläufen wurde Windows schließlich zum erfolgreichsten Produkt von Microsoft.

(http://3.f.ix.de/scale/geometry/695/q75/imgs/18/1/6/6/3/8/1/1/Win1-efbc4189354fd877.jpeg)

Vor genau 30 Jahren schaltete Microsoft in allen US-amerikanischen Computerzeitschriften eine achtseitige Beilage, die erklären sollte, was das 95 US-Dollar teure Programm Windows 1.01 (international 1.03) eigentlich soll. Dieses Microsoft Windows war der dritte Versuch, auf dem IBM-PC einen graphischen Desktop zu installieren, nach Vision von Visicorp im Januar 1984 (495 US-Dollar) und GEM von Digital Research im September (399 US-Dollar). Die Konkurrenz spottete über den Billigheimer, allen voran Apple, das mit der Lisa (1983, 16.995 US-Dollar) und dem Macintosh (1984, 2500 US-Dollar) zwei komplette Computer mit einer solchen Oberfläche verkaufte. Xerox hatte mit dem Xerox Star im Mai 1981 zwar den Urahn aller Desktops in den Markt geschickt, doch war der Verkauf des 40.000 US-Dollar teuren Rechners bereits eingestellt, als die erste Windows-Version erschien.

Der ganze Artikel (http://www.heise.de/newsticker/meldung/30-Jahre-Windows-Der-lange-Weg-zum-Durchbruch-2953258.html)

Quelle : www.heise.de
Titel: 25 Jahre Linux: Das Jedermann-Betriebssystem
Beitrag von: SiLæncer am 25 August, 2016, 15:23
Vor genau 25 Jahren sprach ein damals unbekannter finnischer Student erstmals davon, an einem eigenen, freien Betriebssystem zu arbeiten. Niemand ahnte, dass es sich zum meistbenutzten und -portierten Betriebssystem entwickeln würde.

Nur für i386-PCs mit AT-Bus-Festplatte geeignet und ganz sicher nicht portierbar auf andere Rechnerplattformen, so kündigte der finnische Student Linus Torvalds am 25. August 1991 sein selbst geschriebenes Unix-artiges Betriebssystem auf der Mailing-Liste von Minix an. Es dauerte nur bis zum 17. September, bis die erste Version 0.01 fertig war und jedermann den Quellcode herunterladen konnte.

In den nächsten 25 Jahren wurde Linux zum wohl meist portierten Quellcode nach "Hello World", das praktisch jedermann benutzt, der nicht zufällig auf einer einsamen Insel gestrandet ist. In welchen alltäglichen Geräten Linux heute – oft von den Anwendern unbemerkt – ganz selbstverständlich eingesetzt wird, hat c't anlässlich des Geburtstags einmal zusammengestellt (siehe unten).

Nicht-Linux-Anwender gibt es kaum mehr, lediglich noch ein paar hundert Millionen Widerständler, die darauf beharren, auf ihrem Desktop-PC anstatt ebenfalls Linux ein gewissen proprietäres Betriebssystem zu benutzen. Vielleicht ist der 25 Geburtstag von Linux ein guter Zeitpunkt, die eigene IT-Landschaft zu bereinigen und Linux endlich auch auf dem PC zu installieren.

Zum 25. Geburtstag lesen Sie auf c't einen ausführlichen Hintergrund-Bericht:

    Vom Nerd-Spielzeug zum Allround-Betriebssystem (http://www.heise.de/ct/ausgabe/2016-18-25-Jahre-Linux-vom-Nerd-Spielzeug-zum-Allround-Betriebssystem-das-wirklich-jeder-benutzt-3296177.html)

Quelle : www.heise.de
Titel: 15 Jahre Windows XP
Beitrag von: SiLæncer am 25 Oktober, 2016, 12:30
"Ab heute wird alles leichter", so lautete Microsofts Versprechen, als am 25. Oktober 2001 Windows XP erschien, musikalisch untermalt von Madonnas "Ray of Light". Es dauerte aber einige Jahre, bis das Versprechen tatsächlich eingelöst wurde.

(http://1.f.ix.de/scale/geometry/695/q75/imgs/18/1/9/1/3/2/0/7/XP-5e102ae8220ebbb7.png)

Windows XP (abgeleitet von "eXPerience"), das heute 15 Jahre alt wird, spielte unter all den Windows-Versionen, die Microsoft je herausbrachte, eine ganz besondere Rolle. Denn zuvor waren Windows-Versionen mit "New Technology" (NT) Firmenkunden vorbehalten, während sich Privatleute mit den Abstürzen und Aussetzern typischer Windows-9x-PCs herumschlagen mussten. Doch XP wurde der gemeinsame Nachfolger der letzten 9x-Version "Millienium Edition" sowie von Windows 2000 – endlich wurde NT-Technik für alle angeboten.

Windows-Hype-Cycle

Was dann folgte, beschreibt den typischen Hype-Zyklus erfolgreicher neuer Betriebssystemversionen aus Redmond. Anfangs überwog die Skepsis: Die Luna-Oberfläche wurde als Teletubbie-Optik geschmäht und die Zwangsaktivierung verursachte einen riesigen Aufschrei. Letztere hebelte so mancher auf eigene Faust aus, indem er Firmenversionen ohne passende Lizenz einsetzte (FCKGW, Sie wissen schon). Zudem galt XP als ressourcenhungrig und platzgierig – immerhin belegte es rund 2 GByte auf der Platte.

Der ganze Artikel (http://www.heise.de/newsticker/meldung/15-Jahre-Windows-XP-3357473.html)

Quelle : www.heise.de
Titel: 20 Jahre IEEE 802.11: WLAN feiert Geburtstag
Beitrag von: SiLæncer am 27 Juni, 2017, 18:30
Kaum eine Spezifikation hat die Welt so verändert wie WLAN. Gestern feierte der Standard seinen 20. Geburtstag.

Die Entstehungsgeschichte der WLAN-Technik kennt mehrere Meilensteine und je nach Feierlaune kann man sich einen aussuchen. Wer an die übergreifende IEEE-Spezifikationen der Familie 802.11 denkt, an die IEEE Working Group, findet erste WLAN-Ursprünge im September 1990 – da konnte man bereits 2010 das 20jährige WLAN-Jubiläum feiern und vor zwei Jahren das 25-jährige. Die allererste WLAN-Spezifikation verabschiedete die IEEE aber Ende Juni vor 20 Jahren. Seitdem hat sich viel getan und die Spezifikation wurde zum Standard, der kaum wegzudenken ist. Heute finden sich WLAN-Chips in einer Vielzahl von Endgeräten.

Router mit integrierten WLAN-Access-Points bringen das Internet kabellos ins Haus. Freie WLAN-Hotspots stellen Internetzugang in Cafés, Flughäfen, Hotels, auf Messen und an vielen weiteren Orten zur Verfügung. Freifunker versorgen mit Sektorantennen riesige Areale bei öffentlichen Veranstaltungen. Doch der Weg bis dahin war lang.

Kabellose Kinderschuhe

Im Jahr 1985 entschied der US-Telekommunikationsregulierer FCC drei Frequenzbänder zur lizenzfreien Nutzung freizugeben. Dabei handelte es sich schon um die heute gebräuchlichen Frequenzen bei 2,4 und 5,8 GHz und in den USA im ISM-Bereich bei 900 MHz. Die Freigabe führte jedoch zunächst nicht zu einem Funknetz-Boom. Firmen begannen zunächst mit Eigenentwicklungen auf den Markt zu bringen. Mangels Standard waren die Systeme jedoch inkompatibel zueinander.

Ende der 80er-Jahre wollte die US-amerikanische Firma NCR Kassensysteme kabellos in Netzwerke einbinden. Mangels herstellerübergreifendem Standard beauftragte die Firma ihren Ingenieur Victor Hayes einen solchen zu entwickeln und zu etablieren. Dieser ging auf den Ingenieursverband IEEE zu, dessen 802.3-Komitee bereits den Ethernet-Standard begründet hatte. Das 802.11-Komitee wurde gegründet, dessen Vorsitzender Hayes 10 Jahre lang sein sollte.

Im Juni 1997 stellte das Komitee die erste offene und daher herstellerübergreifende 802.11-Spezifikation fertig. Sie legte eine Datenrate von 2 MBit/s fest und zudem die heute bei WLAN nicht mehr gebräuchlichen Frequenzspreizverfahren DSSS und FHSS. Neben dem 2,4-GHz-Band war auch ein Teil des Infrarotspektrums definiert. Eine Idee, die sich nie durchgestzt hat.

Laufen lernen

Trotz 802.11 gab es Inkompatibilitäten zwischen den Geräten unterschiedlicher Hersteller. Deshalb gründeten im August 1999 sechs große Firmen, darunter Nokia und Cisco, die Wireless Ethernet Compatibiility Alliance (WECA). Die Organisation prüft, ob sich WLAN-Geräte standardkonform verhalten und somit herstellerübergreifend funktionieren. Nach bestandener Prüfung gibt es ein Zertifikat. Seit 2002 heißt die Organisation Wi-Fi Alliance.

Die im Komitee beteiligten Firmen trieben die Entwicklung unmittelbar voran. Bereits im Dezember 1999 wurde 802.11b mit 11 MBit/s Bruttodatenrate verabschiedet. Auf dieser Basis gelang der WLAN-Technik der Durchbruch. Wenig später folgte mit 802.11a der Grundstein für die Nutzung im 5,8-GHz-Band mit 54 MBit/s. Ab dem Jahr 2000 begann der WLAN-Boom. Als einer der ersten Hersteller bot Apple WLAN als optionale Erweiterung für iBooks an.

Der WLAN-Boom

802.11 hat eine Erfolgsgeschichte geschrieben: Im Sog der 802.11b-Verbreitung etablierten sich erste öffentliche WLAN-Hotspots. Im Jahr 2002 zählte das Marktforschungsunternehmen IDC 1150 Hotspots in Westeuropa. 2009 waren es schon mehr als 70 000. Heute sind es laut Cisco weltweit über 64 Millionen.

Seit 1997 sind zehn neue Entwicklungsstufen der WLAN-Technik hinzugekommen und die jüngsten Spezifikationen legen Rahmenbedingungen für bis zu 6,9 GBit/s. Ein Großteil der internetfähigen Geräte kommt mit einem WLAN-Chip auf den Markt. Der Standard ist zusammen mit Breitband-Internetverbindungen in Privathaushalte eingezogen und ein WLAN-Router ist so normal wie eine Mikrowelle.

Die enorme Verbreitung, ständige Weiterentwicklung und weltweite Kompatibilität machen WLAN zu einer einzigartigen Technologie, ohne die das Internet wohl nicht das wäre, was es heute ist. Wir wünschen alles Gute zum Geburtstag!

Quelle : www.heise.de
Titel: Vor 20 Jahren: Microsoft rettet Apple
Beitrag von: SiLæncer am 06 August, 2017, 14:35
Am 6. August 1997 leitete der damalige "iCEO" Steve Jobs eine überraschende Wende im Umgang mit dem ehemaligen Erzrivalen ein, die Apple das wirtschaftliche Überleben sichern sollte.

Es war totenstill, als Steve Jobs während der Eröffnungsrede zur Macworld Expo in Boston andeutete, wie es mit Apple weitergehen werde. Das Unternehmen machte damals große Verluste und stand – heute kaum noch vorstellbar – kurz vor der Pleite. Es brauchte dringend Geld.

150 Millionen in Aktien

Jobs gab eine verblüffende Allianz bekannt: Der einstige Erzfeind Microsoft werde 150 Millionen US-Dollar in Apple-Aktien investieren. Die Besucher buhten und pfiffen. Der erst wenige Monate zuvor zu Apple zurückgekehrte Gründer und neue Interims-CEO setzte sich darüber hinweg und erklärte, es handele sich um Vorzugsaktien, also Aktien ohne Stimmrecht. Daraufhin waren die Gäste auf der Macworld-Keynote wieder etwas milder gestimmt.

Dass der damalige Microsoft-Chef und einstige Erzfeind von Jobs Bill Gates am Abend per Videokonferenz hinzugeschaltet wurde, konnten viele aber kaum fassen.

Der ganze Artikel (https://www.heise.de/mac-and-i/meldung/Vor-20-Jahren-Microsoft-rettet-Apple-3793789.html)

Quelle : www.heise.de