Das Forum rund um DVB am PC, Handy und Tablet
Neuigkeiten:
Anzeigen der neuesten Beiträge
Übersicht
Forum
Hilfe
Einloggen
Registrieren
DVB-Cube <<< Das deutsche PC und DVB-Forum >>>
»
PC-Ecke
»
# Hard-und Software Allgemein
»
Thema:
Computer-Geschichte...
« vorheriges
nächstes »
Drucken
Seiten: [
1
]
2
3
4
5
6
Nach unten
Autor
Thema: Computer-Geschichte... (Gelesen 18642 mal)
0 Mitglieder und 1 Gast betrachten dieses Thema.
SiLæncer
Cheff-Cubie
Beiträge: 191383
Ohne Input kein Output
Computer-Geschichte...
«
am:
09 März, 2005, 16:37 »
Die legendäre Rechenmaschine Z22 hat es als erste Rechenmaschine dieser Art in ein Kunstmuseum geschafft. Der nach seinem Erfinder Konrad Zuse (1910-1995) benannte Computer ist am heutigen Mittwoch in Karlsruhe offiziell dem Zentrum für Kunst und Medientechnologie (ZKM) als Dauerleihgabe des Landes Baden-Württemberg überreicht worden. Die Z22 -- von den Fans liebevoll "die Zuse" genannt -- gilt als der älteste noch voll funktionsfähige und originalgetreu erhaltene Röhrenrechner der Welt.
Als Herzstück der ZKM-Ausstellung "Die Algorithmische Revolution", die sich mit der Durchsetzung algorithmischer Prinzipien im täglichen Leben auseinander setzt, soll die 1,5 Tonnen schwere Computeranlage mit der Seriennummer 13 nach Museumsangaben während der Öffnungszeiten der Ausstellung ohne Abschaltung laufen. Die "Innereien" der Maschine sind beleuchtet und durch nachträglich ins Computergehäuse eingelassene Fenster zu sehen.
"Es ist eine in der Tat historisch sehr wichtige Maschine", sagte Horst Zuse bei der offiziellen Übergabe im ZKM. "Das ist die Maschine, die in den deutschen Hochschulen die EDV eingeführt hat." Sein Vater hatte den ersten funktionstüchtigen Rechner entwickelt, der sich auf binäre Gleitkommarechnung verstand. Diese Maschine -- Z3 genannt -- vollendete er 1941 in einer kleinen Werkstatt in Berlin-Kreuzberg. 1949 gründete Konrad Zuse zusammen mit zwei Partnern im hessischen Neukirchen dann die Zuse KG, die erste Computerfirma Deutschlands.
Die Baureihe der Computeranlage Z22 wurde ab 1957 gebaut und insgesamt fünzigmal ins Inland sowie fünfmal ins Ausland ausgeliefert. Die mit mehr als 400 Elektronenröhren ausgestattete Anlage war eine der ersten, mit der Aufgaben in der neuen Programmiersprache ALGOL60 gelöst werden konnten. Sie wurde in der Mathematik, Betriebswirtschaft, Bautechnik, Elektrotechnik, Ballistik, Aerodynamik, Optik, Vermessungstechnik, im Maschinen- und Kernreaktorbau sowie in der Ausbildung eingesetzt. Die Z22 mit der Seriennummer 13 wurde bis Ende 1971 an der Ingenieurschule in Karlsruhe für die Ausbildung im Programmieren eingesetzt und ist heute als Kulturdenkmal von besonderer Bedeutung in das Denkmalbuch eingetragen.
Quelle :
www.heise.de
«
Letzte Änderung: 01 August, 2009, 11:07 von SiLæncer
»
Arbeits.- Testrechner
:
Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit
TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )
SiLæncer
Cheff-Cubie
Beiträge: 191383
Ohne Input kein Output
Erfinder des Computers: Vor zehn Jahren starb Konrad Zuse
«
Antwort #1 am:
18 Dezember, 2005, 15:28 »
Das Internet war noch ein zartes Pflänzchen, als Konrad Zuse heute vor zehn Jahren starb. Ohne seine Erfindung, den ersten programmierbaren digitalen Rechner, wären moderne Computer undenkbar.
Den Siegeszug, den die Informationstechnik in den vergangenen Jahren nahm, erlebte Konrad Zuse nur noch ansatzweise. Dass mittlerweile in Autos, digitalen Videorecordern und Telefonen leistungsfähige Computerchips stecken, hätte sich der Ingenieur aus Berlin wohl kaum träumen lassen, als er 1941 den ersten funktionierenden Digitalrechner baute.
Der Z3 - Zuse benannte seine Rechner fortlaufend - war der erste funktionsfähige, programmierbare Rechner mit binären Gleitkommazahlen und Boolescher Logik. Im Z3 steckte die grundlegende Technik heutiger Prozessoren.
"Er hatte eine Vision: Er wollte ein Maschine, die kein anderer hat", erinnert sich Horst Zuse, der Sohn des Erfinders. Der Vater Konrad wurde 1910 geboren und studierte zunächst in Berlin Maschinenbau und Architektur, später dann Bauingenieurwesen.
Bereits während seines Studiums habe sein Vater die Idee einer Rechenmaschine entwickelt, sagte Zuse Junior der Nachrichtenagentur dpa. Es sei ihm darum gegangen, Ingenieure von der monotonen und mühseligen Arbeit des Rechnens zu befreien.
1938 entstand Z1, zwei Jahre später Z2 - ein Rechner, der mit Telefonrelais arbeitete. 1941 folgte dann Z3. Zuse entwickelte noch während des Kriegs Z4. Kontakte zu Computerpionieren in den USA und Großbritannien hatte er wegen des Kriegs keine.
1949 gründete der Ingenieur in Hessen die Zuse KG, um Computer industriell zu bauen. Das Unternehmen beschäftigte zeitweilig über 1000 Mitarbeiter. Der erste Serienrechner der Welt, der Z22, war ein Produkt der Zuse KG.
Zuse war nicht nur Erfinder des Computers, von ihm stammt auch die erste universelle Programmiersprache "Plankalkül". Sein wissenschaftliches Erbe verwaltet die Konrad-Zuse-Gesellschaft. Der Chaos Computer Club wollte Zuse sogar zum Ehrenmitglied ernennen, doch der Ingenieur starb vor dem Chaos Communication Congress 1995.
Quelle und Links :
http://www.spiegel.de/netzwelt/technologie/0,1518,390819,00.html
Arbeits.- Testrechner
:
Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit
TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )
Warpi
Master Of Disaster
User a.D.
Beiträge: 1733
Erstes PC-Virus feiert 20. Geburtstag
«
Antwort #2 am:
21 Januar, 2006, 19:40 »
"Brain" wurde 1986 entdeckt
Delaware/ Helsinki (pte) - Vor 20 Jahren ist der erste PC-Virus aufgetaucht. "Brain", so sein Name, konnte nur durch Floppy-Disks von PC zu PC übertragen werden. Obwohl Brain nicht sehr weit verbreitet war, wurde das Virus bekannt als erstes seiner Art. 20 Jahre nachdem Brain in Umlauf gebracht wurde, wird die weltweite Anzahl an schädlichen Programmen auf über 150.000 geschätzt.
Der Ursprung von Brain ist bisher unklar. Es wird vermutet, dass das Virus von einer pakistanischen Softwarefirma hergestellt und verbreitet wurde, um die eigenen Programme zu sichern. Entdeckt wurde Brain erstmals im Januar 1986, da sich das Virus aber relativ langsam verbreitet wurde es vermutlich schon einige Zeit davor in Umlauf gebracht. Die Computerexperten der US-Universität Delaware haben zunächst einige schadhafte Disketten entdeckt. Bei genaueren Untersuchungen wurde Brain identifiziert. Im Vergleich zu "moderne" Viren war Brain harmlos: infizierte Disketten werden so langsam, dass sie kaum noch zu lesen sind.
Brain ist ein Bootsektor-Virus, benannt nach dem Bootsektor einer Diskette, in dem sich das Virus versteckt. Die Programmierer stellen so sicher, dass das Virus aktiv wird, schon während ein Computer hochgefahren wird. Bis Mitte der 90er waren Bootviren die meistverbreitete Form schädlicher Software. Brain wurde zwar als erstes PC-Virus bekannt, doch schon 1982 ist ein schädliches Programm aufgetaucht. Richard Skrenta hat das "Elk Cloner" Virus programmiert, das Apple II-Rechner infiziert hat.
Seit dem ersten Auftauchen von Brain hat sich die Anzahl schädlicher Software massiv gesteigert. "Die größte Veränderung bei Computerviren ist, dass sie nicht mehr von Einzelnen als Hobby hergestellt werden, sondern dass dahinter kriminelle Gruppierungen mit finanziellen Interessen stecken", sagt Mikko Hypponen von dem finnischen Sicherheitssoftware-Unternehmen F-Secure. Laut FBI wurden 84 Prozent aller US-Unternehmen im vergangenen Jahr Opfer von Computerviren, Spyware oder anderer PC-Angriffe. Durchschnittlich kostet einem US-Unternehmen die Sicherheit der Computersysteme 24.000 Dollar pro Jahr, so die Statistik des FBI, die vergangene Woche veröffentlicht wurde.
Quelle:
www.yahoo.de
Ps: Das waren noch Zeiten , mit Sony Hit Bit , Apple 2 u.s.w.
Kennt die 8 Bit - Kisten noch einer ?
«
Letzte Änderung: 21 Januar, 2006, 19:51 von transwarp
»
Mein Vdr / Audio/ Video / Homeserver
Intel Atom A330 Dualcore 2*1,6Ghz / 2 Gigabyte Ram
2 * 500 Gigabyte Samsung HDDS, Technisat Skystar2 DVBS
Ubuntu Jaunty Server, Vdr mit Webinterface, Openssh, Samba
2. Vdr
Pentium 3 / 1000 Mhz / 512 Mb Ram / Refurbished
1 * 200 Gigabyte Samsung HD, Technisat Skystar 2 DVBS
Ubuntu Karmic Server, Vdr mit Webinterface, Openssh, Samba
Asus Eee PC 1005P Netbook (Intel Atom N450 1.6GHz, 1GB RAM, 160GB HDD) Win 7 Starter, WarpIX Netbookremix + Ext. 500 GB 2.5 " HD
Videoschnitthardware
AMD Black Edition - AMD Phenom II X6, 6 x 3.2 GHz Prozessor, 8 GB DDR3 / 1600, 2 x Samsung 1TB, Nvidia Gt 240
Techno Trend S3200 , Windows 7 Homepremium / x64, Linux Mint Julia / x64
Die größte Fehlerquelle des PCS sitzt meist 30cm vor dem Bildschirm.
SiLæncer
Cheff-Cubie
Beiträge: 191383
Ohne Input kein Output
25 JAHRE IBM- PC - Als die Dose unser Leben veränderte
«
Antwort #3 am:
09 August, 2006, 17:07 »
Braucht der ganz normale Mensch einen persönlichen Computer? Vor drei Jahrzehnten schien die Antwort klar: Natürlich nicht! Wozu auch? Dann kamen Jobs und Wozniak, Commodore und Atari, vor allem aber Gates und IBM - und unser aller Alltag begann sich von Grund auf zu verändern.
Mitte der achtziger Jahre irrlichterte ein Thema durch die journalistische Branchenpresse, heiß diskutiert von Gewerkschaftern wie Akademikern: Wie würde der drohende Einzug von Computertechnik das eigene Berufsbild verändern? Praktiker wie Theoretiker befürchteten Schlimmstes. Würden aus Redakteuren nun Redaktroniker? Sekretärinnen arbeitslos? Altgediente Profi-Schreiber als Informatik-Legastheniker aufs Abstellgleis entsorgt?
Präventiv wurden Ende des Jahrzehnts schon einmal die Ausbildungspläne aufgebohrt für die neuen Informatiker-Informationsbeschaffer. Nichts, menetekelten die Weitsichtigen, teils visionierend, teils halluzinierend, bleibe so, wie es einmal war.
Zum Glück hatten sie Recht - nur gingen die Veränderungen unserer Lebens- und Arbeitswelt viel weiter, als sich das vor 20 Jahren irgendjemand hätte vorstellen können. Und das natürlich nicht nur in der Medien- und Kommunikationsbranche, sondern überall. In Rückschau spricht man heute gar von einer Zeitenwende. Der Beginn der massenhaften Verbreitung von Rechnern markiert den endgültigen Übergang von der Industrie- zur Informationsgesellschaft.
Vergleichen Sie: Ihr Leben 1980 und heute
Man muss sich so etwas selbst einmal klar machen: Wir sind eine Generation, die eine Veränderung der Lebenswelt durch Einführung einer neuen Technik erlebt hat, wie es sie seit Erfindung des Automobils nicht mehr gegeben hatte. Im Vergleich zur Durchdringung des Alltags mit Digitaltechnik war selbst der Einzug des Fernsehens fast eine Bagatelle.
Angefangen hatte das alles Mitte der siebziger Jahre. Jahrzehntelang waren Computer klobige, meist als bedrohlich empfundene, schwer zu begreifende Kisten gewesen, mit denen nur wenige Menschen praktische Erfahrungen hatten. Im Film waren es zumeist wahnsinnige Wissenschaftler, die seelenlose Computertechnik zum Schaden der Menschheit missbrauchten. Im Arbeitsleben befürchtete man vor allem Rationalisierungen - also Jobverluste - durch die digitale Technik. In seinem Kultfilm "2001" trieb Stanley Kubrick solche Ängste auf die Spitze: Hier rationalisierte der durchgeknallte Superrechner HAL den größten Teil des menschlichen Personals gleich per Mord weg.
Mit dem Titel "Computer sind doof" traf die Band Spliff 1982 darum durchaus noch den Zeitgeist: Eingesetzt wurden die Dinger schließlich für alles, was irgendwie bedrohlich schien. Im Spliff-Song kommt es am Ende natürlich zur atomaren Weltvernichtung mit Rechnerhilfe.
Doch das Umdenken hatte bereits begonnen
Mitte der Siebziger entwickelten Steve Jobs und Steve Wozniak den Apple I und damit das Konzept eines "persönlichen" Computers. Die etablierte IT-Industrie - und hier namentlich IBM, das zu dieser Zeit über eine marktbeherrschende Stellung verfügte - lachte zunächst über die "Spielzeuge": Ihre Mainframe-Rechner leisteten schließlich echte Arbeit. Die kleinen Rechenknechte konnten da natürlich nicht mithalten.
Dafür ließen sie sich aber anders nutzen: zum Spielen zum Beispiel.
1972 hatte Atari das primitive Tennisspiel Pong veröffentlicht, einige Zeit vorher war mit dem Magnavox Odyssey das erste Telespiel für zu Hause auf den Markt gekommen. Mit einem Mal erschien der Gedanke, so etwas wie einen Computer im Haus zu haben, gar nicht mehr so unsinnig. Zumal sich mit den Dingern ja nicht nur Spielen ließ, sondern auch Briefe schreiben oder Wurzeln ziehen (was für ein Argument bei den Verhandlungen mit den Eltern!). Vier Jahre nach Veröffentlichung des Apple I konkurrierten bereits eine ganze Reihe von Bausatz-Rechnern um den entstehenden Markt - und jetzt wachte auch der Branchenriese IBM auf.
Der hatte die nötigen Einzelteile zur Konstruktion eines "PC" durchaus im Regal, bisher daran aber kein Interesse gezeigt. Mitte 1980 änderte sich das: Die Entwicklungsabteilung bekam den dringenden Auftrag, schnellstmöglich ein verkäufliches Modell zu kreieren. Der Prototyp stand nach wenigen Monaten. Die Arbeit, selbst ein Betriebssystem zu entwickeln, machte sich IBM gar nicht: Microsofts DOS zu lizenzieren schien der bequemere Weg. Schon Ende 1981 stand darum der fertige IBM 5150 in den Läden.
IBM hatte damit, ohne es zu ahnen, selbst den Niedergang seines Geschäfts mit Großrechnern eingeleitet. Weil das Unternehmen es anderen Firmen in einem Versuch, einen "Industrie-Standard" zu etablieren, erlaubte, die grundlegende Architektur des 5150 zu kopieren, verbreitete sich der "IBM-PC" im Doppel mit MS-DOS wie ein Lauffeuer - und verdrängte immer mehr Mainframe-Workstations aus den Büros. Seitdem werden die Rechner halb liebevoll, halb gehässig Dosen genannt.
Als IBM den Verkauf des 5150 sechs Jahre später einstellte, hatte die Firma zwar mehrere Hunderttausend davon abgesetzt und einen Industriestandard etabliert, der im Wesentlichen bis heute Bestand hat, dabei aber Microsoft groß und sich selbst kleiner gemacht - und dem PC in Berufs- wie Privatleben zum Durchbruch verholfen.
Weniger schillernd und populär als seine Konkurrenten C 64, Atari oder Amiga, aber erfolgreicher, weil er von Anfang an eben auch Arbeitstier für den Einsatz im Büro war; Apples 1984 veröffentlichtem Macintosh unterlegen, aber erfolgreicher, weil IBM im Gegensatz zu Apple das technische Konzept freigiebig lizenzierte, bleibt der 5150 so etwas wie Fords Modell T unter den Rechnern: nicht der erste seiner Art, aber das Modell, das die Massenverbreitung einleitete.
IBM feiert am 12. August den 25. Jahrestag des Verkaufsbeginns des 5150 und sieht darin den Beginn der PC-Ära. Darüber kann man streiten - Appleaner kommen da auf 30 Jahre - nicht aber darüber, dass der 5150 den Beginn der IBM-PC-Ära und damit eine Zeitenwende markiert. War es vorher ein relativ kleiner Kreis informierter Computer-Insider, die mit Digitaltechnik experimentierten, waren es am IBM-PC schon bald Millionen. 25 Jahre später ist der "IBM-PC" fraglos ein integraler Bestandteil unseres Lebens.
Quelle :
www.spiegel.de
Arbeits.- Testrechner
:
Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit
TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )
Dragonix
Premium-Cubie
Beiträge: 294
Re: 25 JAHRE IBM- PC - Als die Dose unser Leben veränderte
«
Antwort #4 am:
09 August, 2006, 17:17 »
Auch wenn es laaaaaaaaaaange vor meiner Zeit war:
ALLES GUTE!!!
SiLæncer
Cheff-Cubie
Beiträge: 191383
Ohne Input kein Output
25 Jahre PC: "Wie geht es Deinem Weltall?"
«
Antwort #5 am:
11 August, 2006, 15:48 »
"Ja", schreibt SPIEGEL-ONLINE-Leser Michael Neumann, "die DOSe hat mein Leben ein wenig beeinflusst." Das ist eine krasse Untertreibung. Neumann hat etwas zu erzählen: die Geschichte der allmählichen Digitalisierung des Lebens. Ein Leserbeitrag zur Reihe "25 Jahre PC".
1959 bis 1966
Wahrscheinlich gibt es Computer und wahrscheinlich nehmen sie Einfluss auf mein Leben - ich merke es aber noch nicht.
1966 und folgende
Das Wort Computer fällt immer mal wieder - ich habe ein Auto von Matchbox, das eigentlich Comuter heißt; ich nenne es wegen eines Lesefehlers aber immer meinen Computer.
1970 und folgende
Computer sind groß, bedrohlich und meist von IBM. Das suggerieren mir die Werbung, Science-Fiction-Filme und das Börsenspiel.
1980 bis 1985
Alles, was mit Computern zu tun hat, wird als EDV bezeichnet. Mein Arbeitgeber arbeitet mit Lochkarten und ein Cousin hat einen Taschenrechner von Texas Instruments, der programmierbar ist. Sogar ein "Spiel" ist vorhanden. Man muss eine Mondfähre durch Eingabe von Daten "steuern" - zu viel Schub und sie geht nicht runter, zu wenig Schub und sie stürzt ab; spannende Angelegenheit - nach drei Versuchen aber zu langweilig.
Interessanter sind da schon die aufkommenden Spiele in Spielhallen und Gaststätten.
1986
Bei einem Besuch zeigt mir mein Cousin, der mittlerweile Physik studiert, die Computer an seiner Uni, die in einem Netzwerk miteinander verbunden sind - wozu braucht man denn so etwas? - und über eine Gesamtspeicherkapazität von 10 Megabyte verfügen. Eine gigantische Summe.
1987
Ich verliere die Nerven, gehe los und kaufe einen C64 mit Erweiterung auf 128 kb. Als erstes Projekt wird die Plattensammlung archiviert.
Abgespeichert auf Datasette ist das Wiederfinden bei der Aufteilung in A-D, E-H usw. so zeitraubend, dass der Blick in den Plattenschrank dann doch noch einfacher ist. Programme jeder Art sind teuer und deshalb werden Fachzeitschriften gekauft und Programme abgeschrieben - seitenweise. Beim Abtippen von Basic-Programmen lerne ich viel über deren Logik.
Aus monetären Gründen schiebe ich den Kauf eines sogenannten Floppy-Laufwerks und eines Nadeldruckers immer wieder heraus. Irgendwann wird das selbst abgeschriebene Spiel "Kniffel am C64" langweilig. Ein Spiel, das mit sogenannten Windows arbeitet, und in dem man sich von Level zu Level durcharbeiten muss, ist zwar sehr unterhaltsam, hängt sich aber immer wieder an derselben Stelle auf - das soll ein Bug sein. Der Fehler lässt sich nicht beheben - das Spiel gerät in Vergessenheit.
1988/89
Ich erhalte dienstlichen Zugang zu einem IBM-PC, mit dem die Auswertung eines Großprojekts begleitet werden soll. Ein Abiturient/Praktikant ist so pfiffig, dass er unter Zuhilfenahme der Software "f&a" (Frage und Antwort) und mit einigen eigenen Ideen und Programmierkenntnissen nach kurzer Zeit eine komplexe Auswertung zu technischen Materialzuständen sowie Leistungen der Mitarbeiter und der von ihnen bedienten Systemen liefern kann. Ich finde erstmalig den Einstieg in MS-DOS, kann die Floppy nutzen und Texte und einfache Grafiken formatieren und drucken.
1990-97
Da mir ein sogenannter IBM-kompatibler PC zu teuer ist, kaufe ich mir eine Schreibmaschine von Olivetti, mit Disketten-Laufwerk, 12-Zeilen-Display sowie integrierter Textverarbeitung (links-/rechtsbündig, Blocksatz und Rechtschreibprüfung) und Tabellenkalkulation. Mit verschiedenen austauschbaren Schrifttypen auf Rädern, Korrekturtaste und einem Austausch der Daten zu PCs (über ASCII) habe ich für lange Zeit alles, was ich für den Schriftverkehr im täglichen Dienst und für den privaten Bereich benötige.
Allen, die mich auf meine (vielbewunderte und immerhin 800 Mark teure) Schreibmaschine ansprechen und fragen, warum ich denn keinen PC habe, sage ich, dass doch ohnehin fast jeder seinen PC zur Schreibmaschine degeneriert - warum dann nicht gleich eine Schreibmaschine nutzen? Außerdem bin ich mit ihr mobil, weil sie schnell zusammengepackt ist. Irgendwo schaue ich aber immer mit Neid auf die PC-Besitzer, die mich mit Ihren Kenntnissen über Windows 3.11 und dann Windows 95 langsam abhängen. Ich fürchte, ich verpasse den Sprung in die Informationsgesellschaft.
1998
Ich verliere erneut die Nerven, gehe zu einer Niederlassung von Vobis, weil die anderen Elektronik-Discounter noch im Kerngeschäft Unterhaltungselektronik vertreiben. Außerdem habe ich einfach keine Zeit, mich irgendwann in der Nacht für einen ALDI-PC anzustellen. Um 2600 Mark erleichtert verlasse ich den Laden mit einem High-End-PC, der Windows 98 und die Small-Business-Edition von MS-Office aufgespielt hat, über eine 4,5 GB-Festplatte, ein CD-ROM-Laufwerk und einen CD-Brenner verfügt. Als Peripheriegeräte sind noch ein Flachbettscanner, ein Farbdrucker, ein 19 Zoll-Monitor und ein 56k-Modem im Kofferraum.
"Damit haben Sie für viele Jahre ausgesorgt", klingt es mir noch lange im Ohr. Freund und Feind gleichermaßen bewundern mein Equipment über ein gutes halbes Jahr lang, dann erscheint alles etwas angestaubt.
Im Moment aber bin ich der König. Ich kann CDs brennen und entdecke den Schmerz, wenn sich der Brennvorgang mit einem Buffer-Underrun verabschiedet - CD-Rohlinge kosten damals noch deutlich mehr. Ich werde ungehalten, wenn ein Stockwerk tiefer jemand den Telefonhörer mitten in der Internetsitzung abhebt und genieße es, wenn meine Schaffenskraft in Sachen persönlich gestalteter Einladungs- und Grußkarten bewundert wird.
1999
In der Freizeit sitze ich nur noch in meinem Arbeitszimmer unter dem Dach am PC - es gibt soviel zu entdecken, zu machen und zu probieren. Dass ich die Nutzung längst übertreibe, geht in meiner Begeisterung für die Informationsgewinnung, -verbreitung und -verarbeitung und meiner grenzenlosen Freude über einen neuen potenten PC, den ich an einem neuen Arbeitsplatz vorfinde, unter. Längst bin ich zum Internet- und Computer-Junkie geworden, der für jedes Problem die Lösung über den PC und das Internet sucht und auch findet.
2000
Die Ehe ist zu Bruch gegangen - meine Computer- und Internetleidenschaft hat sicherlich erheblich dazu beigetragen. Ich lerne eine Frau kennen - natürlich in einem Chatroom - die meine Begeisterung für die neuen Medien teilt. Ich finde den Zugang zu eBay und bin fassungslos, welche Dimensionen die Globalisierung hat - auch für mich. Für einen Bekannten verkaufe ich einen Dachbodenfund Blechspielzeug über virtuelle Auktionshäuser in die ganze Welt, die nur noch ein Dorf ist.
2001
Ich bin im Dienst zum gefragten Gesprächspartner der Netzwerkadministratoren geworden, baue meinen PC selber auf den neusten Leistungsstand aus, erwerbe die Teile dafür im Internet, verkaufe die Altteile fast zu Neupreis und stecke Jumper an Festplatten um, als hätte ich noch nie etwas anderes getan.
2002
Wir - die Internet-Bekanntschaft und ich - haben geheiratet und verfügen in unserem Arbeitszimmer über drei Rechner. Jeder hat seinen eigenen PC und den Internetzugang über ISDN. Ich habe noch einen Linux-Rechner, um auch hier mitreden zu können. Die drei PCs sind natürlich über einen Hub vernetzt und der Internetzugang erfolgt über einen Router. Hinzu kommt ein Notebook, mit dem der Zugang ins WWW immer und überall gewährleistet ist und mit dem im Sommer die tagsüber geschossenen Urlaubsbilder abends überarbeitet werden können.
2003
Wir kaufen ein neues Haus. Der PC begleitet das gesamte Projekt: vom Suchen und finden, der Prüfung aller Umstände, bis hin zur detaillierten Küchenplanung. Das Notebook pendelt mit allen Informationen zwischen Arbeitsplatz, Wohnung alt und Wohnung neu.
2004
Wir wohnen im neuen Haus. Das Netzwerk und der DSL-Zugang zum Internet erfolgen zunächst provisorisch - irgendwann können wir die Kabel nicht mehr sehen. Dem Himmel sei Dank, dass ich ein gutes Angebot für eine WLAN-Box und vier Sende-/Empfangseinheiten aufspüren kann - natürlich im Internet.
Ab sofort keine Kabel mehr und ich sitze wie Michael B. im Liegestuhl im Garten und surfe.
2005
Ich habe über SPIEGEL ONLINE, die Seite, die seit Jahren meine Hauptquelle für Informationen ist, einen Artikel über Browsergames gelesen - ab sofort spiele ich Spacepioneers und schon nach kurzer Zeit gilt für mich, was für alle SP-Zocker gilt: Jeder normale Mann denkt alle 30 Sekunden an Sex - jeder Spacepioneers-Spieler denkt alle 5 Sekunden an seine Flotte.
2006
Im Browsergame habe ich mich 2900 Plätze vorgearbeitet. Meine Frau fragt manchmal, was mein Weltraum macht. Größere Einkäufe werden zu 99,9% über das Internet getätigt. Wir haben zusammen weit über 1000 positive Bewertungen (100% positiv) bei eBay. Unsere Ferienwohnung vermitteln wir über die selbst erstellte und gepflegte Homepage, genau so, wie die Präsentation der Hundezucht meiner Frau. Das Navigationsgerät ist als Pocket-PC gleichzeitig der Notebookersatz bei Besprechungen. Telefoniert wird über das Internet. Das Handy kann alles. Steuern und jeder Schriftverkehr wird elektronisch erledigt und am Arbeitsplatz ist der PC zu über 80% mein Handwerkszeug.
Ja, die DOSe hat mein Leben ein wenig beeinflusst.
Quelle :
www.spiegel.de
Arbeits.- Testrechner
:
Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit
TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )
Warpi
Master Of Disaster
User a.D.
Beiträge: 1733
12.08.1981 – Der erste Personal Computer von IBM kommt auf den Markt.
«
Antwort #6 am:
12 August, 2006, 08:49 »
http://de.wikipedia.org/wiki/Personal_Computer#IBM-PC
Mein Vdr / Audio/ Video / Homeserver
Intel Atom A330 Dualcore 2*1,6Ghz / 2 Gigabyte Ram
2 * 500 Gigabyte Samsung HDDS, Technisat Skystar2 DVBS
Ubuntu Jaunty Server, Vdr mit Webinterface, Openssh, Samba
2. Vdr
Pentium 3 / 1000 Mhz / 512 Mb Ram / Refurbished
1 * 200 Gigabyte Samsung HD, Technisat Skystar 2 DVBS
Ubuntu Karmic Server, Vdr mit Webinterface, Openssh, Samba
Asus Eee PC 1005P Netbook (Intel Atom N450 1.6GHz, 1GB RAM, 160GB HDD) Win 7 Starter, WarpIX Netbookremix + Ext. 500 GB 2.5 " HD
Videoschnitthardware
AMD Black Edition - AMD Phenom II X6, 6 x 3.2 GHz Prozessor, 8 GB DDR3 / 1600, 2 x Samsung 1TB, Nvidia Gt 240
Techno Trend S3200 , Windows 7 Homepremium / x64, Linux Mint Julia / x64
Die größte Fehlerquelle des PCS sitzt meist 30cm vor dem Bildschirm.
SiLæncer
Cheff-Cubie
Beiträge: 191383
Ohne Input kein Output
Die Maschine lieben - Die Ausstellung "Enter!"
«
Antwort #7 am:
15 Oktober, 2006, 11:20 »
Über die Ausstellung "Enter!" im Tübinger Stadtmuseum
Es ist nur ein einziger Saal, und er ist nicht einmal allzu groß. Aber das Tübinger Stadtmuseum zeigt derzeit, wie man am richtigen Ort mit den richtigen Exponaten eine spannende Ausstellung zur Computergeschichte machen kann, auch wenn Platz und Mittel beschränkt sind.
Tübingen? Wieso Tübingen? Die verschlafene kleine Universitätsstadt in Schwaben mag eine Menge Vorzüge aufweisen und von Gelehrsamkeit nur so bersten, aber mit der Datenverarbeitung und ihrer Geschichte bringt man Tübingen allgemein nicht in Verbindung. Warum hier? Darum: Es hat doch einmal ein Computerpionier hier gelebt und gebastelt, allerdings ein sehr früher. Wilhelm Schickard baute in Tübingen um 1620 die erste Rechenmaschine der Welt.
Der ganze Artikel
Quelle :
www.heise.de
Arbeits.- Testrechner
:
Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit
TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )
SiLæncer
Cheff-Cubie
Beiträge: 191383
Ohne Input kein Output
25 Jahre Sun Microsystems: Der Computer ist das Handbuch
«
Antwort #8 am:
24 Februar, 2007, 21:21 »
Am heutigen Samstag feiert Sun Microsystems offiziell seinen 25. Geburtstag. Nach einem Brief des deutschen Firmenmitgründers Andreas von Bechtolsheim wurde die Firma erst am 16. Mai 1982 eingetragen, doch der 24. Februar erscheint als ein passenderes Datum: An diesem Tag stellte Sun Microsystems ausweislich der eigenen Zeitschiene (PDF-Datei) den Prototypen der ersten Workstation vor, mithin das Konzept, mit dem Sun zu einem sehr erfolgreichen Computerbauer wurde.
Dabei war das Konzept, eine leistungsfähige billige Workstation mit Standardkomponenten für die Forschung zu entwerfen, nicht einmal neu. Andreas von Bechtolsheim hatte im Auftrag eines Informatikprofessors Pläne für eine kostengünstigen CAD-Rechner entwickelt und diese Pläne an sieben oder acht Firmen lizenziert. "Das Problem war: Die Firmen wollten keine Workstations bauen. 1982 war das Jahr, in dem am Ende der Computer zum Man of the Year erklärt wurde. Alle dachten dabei an billige Personalcomputer. All diese Firmen hätten Sun werden können. Heute gibt es sie nicht mehr", erklärte Bechtolsheim in einem Fernseh-Interview mit dem Journalisten Stephen Segaller.
Zusammen mit den ebenfalls 26 Jahre alten Vinod Koshla, Scott McNealy und dem Programmier Bill Joy gründete Bechtolsheim Sun Microsystems. Das Kürzel Sun ist ein Tribut an das Stanford University Network, ohne das es die Idee vom leistungsfähigen vernetzten Computer nicht so einfach gehabt hätte: "Sun Microsystems war das Produkt des finanziell armen, doch an Arbeitskraft überreichen Universitäts-Biotops, in dem Unix blühte und gedieh", erklärte der Computerhistoriker Martin Campbell-Kelly.
In einer Talkshow zur Gründung (Zusammenfassung als PDF-Datei) von Sun Microsystems erklären die Gründer die günstige Konstellation, unter der Sun starten konnte. Geld war da, weil Venture-Kapitalisten etwas gaben, ohne einen blassen Schimmer davon zu haben, was denn eine Workstation sein soll. Und talentierte Programmierer und Hardware-Entwickler gab es im Überfluss. Selbst das Marketing funktionierte bei den Geeks. Bill Joy, der damalige Chefentwickler von BSD-Unix, brachte John Cage mit, der den berühmten Sun-Slogan erfand: "The network is the computer, the computer is the manual." Heute wird gern der zweite Teil des Satzes weggelassen: das Versprechen auf einen Computer, der ohne Handbuchstudium bedient werden kann.
Der erste Computer namens Sun-1 in einer langen Modellreihe basierte auf dem billigen Motorola-Prozessor 68000 und hieß ursprünglich "68000 Unix System". Erst nach vier Modellen führte die Firma ihre eigenen SPARC-Prozessoren ein, mit denen das Workstation-Geschäft noch lukrativer wurde. Ebenso wichtig waren jedoch die Arbeiten am Betriebssystem SunOS, einer BSD-Unix-Variante. NFS, das Network File System, brachte die anvisierte einfache Vernetzung. Und mit Java gab es dann von Sun auch die Grundlage für die einfache Entwicklung von vernetzten Anwendungen in heterogenen Umgebungen.
Zunächst war Sun ein reiner Workstation-Lieferant, geriet mit dieser Strategie aber ins Straucheln, als die belächelten PCs immer leistungsfähiger und billiger wurden. Der vor 10 Jahren gestartete Versuch, in dem sich abzeichnenden Internet-Boom mit einer JavaStation den PC auszumanövrieren, scheiterte spektakulär. Das Ökosystem mit Internet-Anwendungen, wie sie unter anderem Google heute bietet, war noch nicht vorhanden. Auch der vom langjährigen Sun-Chef Scott McNealy mit Leidenschaft verfolgte Konfrontationskurs zu Microsoft, in dem unter anderem die deutsche Softwarefirma Star Division übernommen wurde, war für Sun nicht sonderlich erfolgreich. Immerhin aber hat StarOffice und das Pendant OpenOffice, für das Sun den StarOffice-Quellcode als Open Source freigab, durch den Coup eine solide Basis gefunden.
Die Perspektive von Sun Microsystem besserte sich Ende der 90er Jahre, als es der Firma gelang, sich als Server-Hersteller neu zu positionieren. Einige Rückschläge folgten noch – so wurde Sun zwar zum Lieferant der Server, die das stark expandierende Internet und Web während der Hochzeit der New Economy antrieben, litt dann aber auch besonders, als all die schicken Firmen der Internet-Ökonomie pleite gingen und keine Sun-Maschinen mehr kaufen konnten. Mittlerweile blickt Sun wieder optimistischer in die Zukunft – die ersten schwarzen Zahlen seit einiger Zeit geben Anlass, ehrgeizige Ziele zu formulieren; nach AMD ist nun auch Intel als weiterer Prozessorlieferant im Boot, strategische Entscheidungen wie die Freigabe von Java als Open Source sollen die Basis für Sun weiter verbreitern. Heute ist Sun nach den neuesten Zahlen die Nummer drei unter den Server-Lieferanten. Wenn das Netzwerk der Computer ist, muss man eben Computer für das Netzwerk bauen.
Quelle :
www.heise.de
Arbeits.- Testrechner
:
Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit
TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )
SiLæncer
Cheff-Cubie
Beiträge: 191383
Ohne Input kein Output
25 JAHRE COMPUTERVIREN: Der Apfel- Fresser
«
Antwort #9 am:
13 Juli, 2007, 19:10 »
Sein Name war Elk Cloner, und er war der erste seiner Art. Vor 25 Jahren setzte ein 15-Jähriger ein Computervirus in die Welt. Das Programm pflanzte sich über Disketten fort, zeigte ein Gedicht, ließ ansonsten aber die befallenen Apple-Rechner unversehrt. Längst bereut der Autor seine Tat.
"Hey, hast du neue Spiele?" Den Satz hörte Richard Skrenta jede Woche, damals im Computerraum seiner Highschool in Pittsburgh. Der 15-Jährige war beliebt und bekannt dafür, immer wieder unterhaltsame Programme zu schreiben. Und diese nervigen Fragen brachten ihn auf eine Idee: Warum nicht ein kleines, verstecktes Programm schreiben, dass sich unerkannt über die kopierten Disketten verbreitet und Computerbesitzer plötzlich erschreckt? Das hat Skrenta 1982 getan. Sein kleiner Spaß wurde zum ersten Virus der Computergeschichte.
Heute muss sich Skrenta eine andere, nervige Frage anhören. Immer wieder, seit 25 Jahren: "Bist du der Typ, der den ersten Virus geschrieben hat?" Ja. Ein Artikel in der heutigen Ausgabe des Wissenschaftsmagazins "Science" feiert Skrenta wieder einmal als Schöpfer des ersten Virus, das in die freie Wildbahn, also auf die Rechner ahnungsloser Computerbesitzer geriet.
Richard Skrenta hat diesen Teenager-Scherz inzwischen auf seiner Webseite im Lebenslauf vermerkt. Mit dem leicht genervten Zusatz in Klammern: "Da war ich in der neunten Klasse!" Denn Skrenta ist inzwischen 40, ein gestandener Programmierer. Er hat schon für Sun, Netscape und AOL gearbeitet. Er hat das Unternehmen Topix gegründet - ein Nachrichtenportal für Lokales, das vor zwei Jahren von US-Zeitungsriesen aufgekauft wurde. Skrenta ist dort heute Geschäftsführer.
Aber berühmt ist Skrenta noch immer als Virus-Autor. Als ihn 1990 wieder einmal jemand in einer Programmierer-Newsgroup gefragt hat: "Also bist du der ELK CLONER?
", antwortete Skrenta: "Unglaublich. Ich habe so viel Zeug für den Apple II programmiert - Adventure-Spiele, Compiler, ein Betriebsystem. Und der dümmste Hack, den ich je geschrieben habe, hat am meisten Interesse erzeugt, bis heute."
Infiziert hat Cloner nur Apple-II-Rechner
Rein technisch gesehen war der erste Computer-Virus aber ziemlich clever. Dumm war es vielleicht, ihn einfach so auf die Menschheit loszulassen. Die Apple-II-Rechner waren damals die beliebtesten Computersysteme. Sie standen in Skrentas Schule, bei manchen seiner Lehrer und bei einigen seiner Freunde. Und weil diese Freunde Skrenta immer wieder nach neuen Spielen löcherten, seine Disketten kopierten, kam er auf die Idee, sie mit einer kleinen, lästigen Botschaft zu überraschen.
Damals wurden Programme auf Floppy-Disketten in Computer eingelegt und von dort aus ausgeführt. Skrenta schrieb nun eine Huckepack-Software, die sich auf Disketten versteckte und sich in den Bootsektor jedes Computers kopierte, in dem die Diskette steckte. Von dort aus infizierte der Virus dann alle weiteren eingelegten Disketten - bis der Computer wieder ausgeschaltet wurde. So pflanzte sich der Virus fort.
Clevere Programmierung, dämliche Lyrik
Die Betroffenen merkten erst gar nicht, dass ihre Rechner infiziert waren. Das Virus zählte aber mit, wie oft seine Diskette in einen Rechner gesteckt wurde. Bei jeder fünfzigsten Programm-Ausführung ließ das Virus den Bildschirm dunkel werden. Dann tauchte Skrentas absurdes Gedicht auf:
Elk Cloner: The program with a personality / Elk Cloner: Das Programm mit Persönlichkeit
It will get on all your disks / Es wird all deine Disketten infizieren
It will infiltrate your chips / Und deine Chip kontaminieren
Yes it's Cloner! / Ja, es ist Cloner!
It will stick to you like glue / Es bleibt an Dir hängen wie Kleber
It will modify ram too / Und geht auch dem Arbeitsspeicher ans Leder
Send in the Cloner! / Hier kommt der Cloner!
Sonst richtet Cloner keine Schäden an. Einmal den Rechner aus- und wieder einschalten und schon lief das Programm normal wie vor dem kleinen Einbruch des Cloner-Wahnsinns. Dieses Virus löschte nicht, schnüffelte nicht, verriet nicht die Geheimnisse des Computer-Besitzers an andere. Cloner nervte einfach.
Der Virus klebt an Skrenta
Skrenta erinnert sich auf seiner Webseite, wie sein damaliger Mathematik-Lehrer reagierte, als Cloner ihm einen Schrecken eingejagt hatte: "Er sagte, er hätte mir das Genick gebrochen, wenn ich dort gewesen wäre, als das Gedicht erschien." Nur: Wie kam das Programm auf den Rechner des Lehrers? Er muss sich wohl von einem der Schüler Software kopiert haben. Skrenta erinnert sich auf seiner Seite an die andere Reaktionen der Betroffenen: "Einige Freunde fanden das lustig. Die meisten hassten es."
Aber die Medien liebten Skrenta: Mit seinem Virus brachte er es bis 1985 nicht nur in einige Regionalzeitungen, sondern auch ins Magazin "Time" und den "Scientific American". Dort lobte sogar der Programmierer Bob Hablutzel die Leistung des 15-jährigen Skrenta: "Er hat ein ernst zunehmendes Programmierer-Talent." Allerdings sei der Junge "fehlgeleitet".
Das Gegenteil hat Skrenta in den 25 Jahren nach seinem ersten und letzten Virus wohl bewiesen. In seinem Blog schreibt er: "Viren sind heute viel zu verbreitet. Man kriegt den Geist nicht in die Flasche zurück. Der einzige Trost, den ich finde ist der, dass der Geist ohnehin rausgekommen wäre. Aber es ist ein großer Spaß, der erste zu sein, der ihn rausgelassen hat."
Quelle :
www.spiegel.de
Arbeits.- Testrechner
:
Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit
TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )
SiLæncer
Cheff-Cubie
Beiträge: 191383
Ohne Input kein Output
100 Jahre Computer - der Z3 wird nachgebaut
«
Antwort #10 am:
08 April, 2009, 12:53 »
Von Fans der Computertechnologie liebevoll "Vater" genannt, soll nun der Rechner pünktlich zum 100. Geburtstag nach Originalplänen nachgebaut werden.
In München im Technikmuseum steht schon einer: ein Z3. Konrad Zuse, der Computer-Erfinder soll mit einem weiteren Nachbau seiner "Rechenmaschine" posthum gewürdigt werden. Der Sohn des Technik-Pioniers, Horst Zuse, und der Bürgermeister von Hünfeld, Eberhard Fennel, vereinbarten einen detaillgetreuen Nachbau. Die Stadt in Hessen in der der Erfinder 1995 starb, bemüht sich darum, den Nachbau des Z3 für das dort ansässige Konrad-Zuse-Museum zu konstruieren. Anschließend soll er auf Tour gehen und auch in Berlin und anderen Städten zu sehen sein.
Schon 1941 baute Zuse den ersten Digitalrechner. Zuse, der seine Rechner durchnummerierte (Z1, Z2,Z3...), gelang es mit dem Z3 einen funktionsfähigen, programmierbaren Rechner mit binären Gleitkommazahlen und Boolescher Logik zu konstruieren. Noch heute bildet dies die zu Grunde liegende Technik in jedem Prozessor. Mit "Plankalkül" entwarf er zudem die erste universelle Programmiersprache der Welt. 1941 war Zuses Z3 für den wissenschaftlichen Einsatz schon wesentlich leistungsfähiger und vor allem kleiner als spätere "Rechenmaschinen". Zuse setzte auf das binäre Zahlensystem und die Gleitkommarechnung. Mit der Zuse KG in NeuKirchen bei Hünfeld gegründet er den ersten Computerhersteller der Welt.
Zuse war ein Besessener, der sich Stunden lang in seine Erfindungen stürzte und dazu musste man damals nicht nur am Rechner hocken, sondern auch die Ärmel hochkrempeln. Die Maschine war immer noch auch "mechanisch", was die Größe der Bauteile anging.
Der Visionär Zuse erkannte früh, dass die Rechner zukünftig aus dem Leben nicht mehr wegzudenken wären. Als man bei IBM 1944 noch davon ausging, dass eine Hand voll Rechner des Typs MARK I den globalen Rechenbedarf abdecken könnten, dachte Zuse schon an eine Serienproduktion. Erst 1964 wurde die Zuse KG von Siemens übernommen.
Quelle :
www.gulli.com
Arbeits.- Testrechner
:
Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit
TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )
SiLæncer
Cheff-Cubie
Beiträge: 191383
Ohne Input kein Output
Vor 60 Jahren: Das erste Computerprogramm startet
«
Antwort #11 am:
09 Mai, 2009, 21:40 »
1, 4, 9, 16, 25, 36 ... Heute vor 60 Jahren lief ein Programm auf dem in Großbritannien gebauten EDSAC, dem Electronic Delay Storage Automatic Computer. In 2 Minuten und 35 Sekunden berechneten 3500 Röhren die Quadrate aller Zahlen von 0 bis 99 auf dem ersten vollkommen frei programmierbaren Digitalcomputer. Mit dem EDSAC der Universität Cambridge und der kommerziellen Kopie LEO 1 begann das Zeitalter der Universalcomputer.
Der Electronic Delay Storage Automatic Computer
Im Unterschied zum amerikanischen ENIAC und dem Rechner des Computerpioniers Atanasoff oder dem Colossus, der speziell für das Code-Knacken entwickelt wurde, musste der EDSAC für neue Rechenaufgaben nicht tagelang neu verkabelt werden. Wie Zuses elektromechanische Z3 war der EDSAC universal programmierbar, mithin der erste Rechner nach den Vorgaben der von Neumann-Architektur. Seine Konstruktion begann im Mai 1946, als der Physiker Maurice Wilkes John von Neumanns Artikel "Draft Report on the EDVAC" lesen konnte. Im Gegensatz zu den Details von ENIAC oder Colossus, die damals geheim waren, war diese 101 Seiten starke Arbeit zum fortschrittlicheren EDVAC, der im August 1949 seine Arbeit aufnahm, nicht als geheim klassifiziert. Der aus der Armee entlassene Wilkes arbeitete am Mathematik-Labor und machte der Universität den Vorschlag, nach dem EDVAC-Prinzip ein zentrales Rechenwerk zu bauen, das alle Fakultäten benutzen sollten. Zu seiner eigenen Überraschung kam der Vorschlag durch, wohl weil in Manchester ein ähnliches Projekt gestartet worden war. Wilkes durfte in die USA fliegen und diskutierte dort mit John Mauchly und Howard Aiken, aber auch mit dem Selectron-Erfinder Jan Rajchman.
Im Unterschied zu den amerikanischen Entwicklungen und gegen den Rat von Howard Aiken entschied sich Wilkens als Arbeitsspeicher seiner EDVAC-Kopie auf den Quecksilber-Verzögerungsspeicher zurückzugreifen. Im Krieg hatte er Radarsysteme konstruiert, bei denen diese Speicher benutzt wurden, um unerwünschte Echos auszufiltern. Ein weiterer Unterschied zu den vom US-Militär finanzierten ENIAC-und EDVAC-Projekten bestand in der kommerziellen Unterstützung durch den Nahrungsmittelkonzern Lyons. Die Firma, die ähnlich wie später Starbucks durch eine Kette von Teehäusern groß geworden war, finanzierte Assistentenstellen beim EDSAC-Projekt und stellte einen Ingenieur ab, der zuvor Brühwurst-Automaten entwickelt hatte. Seine Aufgabe war es, aus dem universitären Forschungsprojekt einen kommerziellen Rechner zu entwickeln. Lyons Electronic Office I oder LEO I war ein EDSAC-Klone mit größerem Arbeitsspeicher. Den Beweis der Nützlichkeit von Computern im Büro trat LEO 1 nach einigen Fehlschlägen im Dezember 1953 an, als die Lohnbuchhaltung des Konzerns computerisiert wurde. Für die Berechnung des Lohns eines Mitarbeiters brauchte ein erfahrener Buchhalter 8 Minuten, LEO I erledigte das in 1,5 Sekunden. Eine weitere Unterstützung erhielt das universitäre Projekt durch die britische BTM, damals eine Tochter der amerikanischen IBM. Sie stellte kostenlos Hollerith-Locher und -Leser zur Verfügung, mit denen Programme und Daten eingelesen wurden. Die Ergebnisse wurden auf einem Fernschreiber ausgegeben.
Maurice Wilkes sitzt im Jahr 1964 am Schreibtisch von Joe Weizenbaum im MIT und arbeitet am CTSS (Compatible Time Sharing System), einem Unix-Vorläufer.
EDSAC war ein 17-Bit-Computer, der mit 500 kHz arbeitete, einen Arbeitsspeicher mit 1024 Adressen besaß und über 18 5-Bit-Befehle wie A (Add), S (Subtract) oder O (Output/Drucken) verfügte. Die Arbeitsweise demonstriert der EDSAC-Simulator von Martin Campbell-Kelly. EDSAC 1 lief bis zum 11. Juli 1952 und wurde dann von EDSACc 2 abgelöst. Nach dem Berechnen der Quadratzahlen war das zweite Programm ein von David Wheeler geschriebenes Programm zur Berechnung von Primzahlen. Dieses Programm wurde auf der ersten außeramerikanischen Konferenz für schnelle Rechenmaschinen 1949 in Cambridge demonstriert und sorgte für enormes Aufsehen. Auf deutscher Seite nahm Alwin Walther teil, der nach dem Vorbild des EDSAC den DERA baute, den Darmstädter Elektronischen Rechenautomaten.
Schon das dritte, etwas anspruchsvollere Programm, die Berechnung von Airy-Funktionen, lief erst nach vielen, vielen Änderungen im Sourcecode. Programmierer Maurice Wilkes, der zwischen dem Lochstreifen-Raum im Erdgeschoss und dem Computer-Raum mit EDSAC im vierten Stock hin- und herkletterte, schrieb in seinen Erinnerungen über das erste Debugging: "Während ich die Stufen hoch und runter hetzte, wurde mir schlagartig klar, dass ich zu einem guten Teil den Rest meines Lebens damit verbringen würde, Fehler in meinen eigenen Programmen auszumerzen."
EDSAC brachte noch andere Erkenntnisse, die trivial erscheinen mögen. David Wheeler erfand die Subroutine. Erprobte, fehlerfreie Programme wurden bald in Programmbibliotheken verwaltet. Wie die am EDSAC ausgebildete Informatikerin Karen Spärck Jones in einer kurzen EDSAC-Geschichte schrieb, begründete der Computer eine ehrwürdige Tradition: Nachts, wenn die offiziellen Operatoren Feierabend hatten, durften mit dem System erfahrene Studenten experimentieren, bis die Maschine den Geist aufgab. Heute würde man sie Hacker nennen.
Quelle :
www.heise.de
Arbeits.- Testrechner
:
Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit
TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )
SiLæncer
Cheff-Cubie
Beiträge: 191383
Ohne Input kein Output
30 Jahre "Computer Communication Compatibility"
«
Antwort #12 am:
02 Juli, 2009, 15:57 »
Vor 30 Jahren gründete Bob Metcalfe, einer der Entwickler des Ethernet-Standards, die Firma "Computer Communication Compatibility". Sie wuchs unter dem Kürzel 3Com nach der Vorstellung der ersten Ethernet-Netzwerkkarte für den IBM-PC im September 1982 zu einer Weltfirma, die zu ihren besten Zeiten 12.000 Entwickler beschäftigte. Der Geburtstag (PDF-Datei) wird derzeit in den USA und China gefeiert.
Drei Jahre hatte Bob Metcalfe die Gründung von 3Com vorbereitet. Der Ingenieur, der mit einer Dissertation über die Unterschiede zwischen dem ARPAnet und dem ALOHAnet die Universität Harvard abschloss, war unzufrieden, dass sein Arbeitgeber Xerox die Erfindung der Ethernet-Technik nicht kommerzialisierte. In den PARC-Labors von Xerox hatte Metcalfe am 22. Mai 1973 die entscheidende Erfindung gemacht, die Ethernet auszeichnete. Sie trug den sperrigen Namen Carrier sense multiple access with collision detection (CSMA/CD) und beschreibt, wie eine sendende Station ins Netz horchen soll, wenn sie ein Datenpaket absetzen will und Kollisionen mit anderen Stationen vermieden werden sollen – und wie sie das Aussenden der Pakete zu wiederholen hat, wenn es doch zu Kollisionen kommt.
Metcalfe hatte damals am PARC die Aufgabe von Charles Simonyi übernommen, ein 2-MBit/s-Netzwerk mit maximal 256 Knoten zu entwickeln. Während Simonyi das programmierte, was heute als "Microsoft Word" bekannt ist, entwickelten Bob Metcalfe, David Boggs, Butler Lampson und Chuck Thacker das Netzwerksystem, das sie Ethernet nannten, in Anspielung auf den Äther, der früher in der Physik eine Rolle spielte.
Als Ethernet am PARC erfolgreich installiert war und sogar Verbindungen mit dem ARPAnet funktionierten, sah Metcalfe die Chance, spezielle Chips für die Ethernet-Verbindungen zu entwickeln: Im November 1978 hatte es der Xerox-Ingenieur in zähen Verhandlungen durchgesetzt, dass Xerox, DEC und Intel Ethernet als IEEE-Standard für ein 10 MBit/s-Netzwerk etablierten. Auf diesem neuen Standard gründete sich Metcalfes Geschäftsidee mit dem Startup 3Com. Dabei hatte Metcalfe Glück. Als 3Com 1979 mit der Entwicklung von Ethernet-Prozessoren begann, erfuhren Metcalfes Ingeneure von IBM-Plänen, einen Personal-Computer zu bauen. Als der PC im August 1981 vorgestellt wurde, war man bei 3Com mit Hochdruck dabei, die Netzwerkkarte für diesen Rechner zu entwickeln. "Wir schafften es, für diesen brandneuen Rechner eine Steckkarte namens Etherlink zu entwickeln. Für 1000 Dollar konnten die Leute ihren PC ans Ethernet anschließen, für das wir ihnen natürlich noch ein Netzwerksystem verkauften. Das Geschäft entwickelte sich prächtig, wir konnten 1984 an die Börse gehen. Als ich 3Com 1990 verließ, hatte der Laden 2000 Leute und machte eine halbe Milliarde Umsatz im Jahr", erzählte Metcalfe in einem Heise-Interview im Jahre 1993.
Neben den Etherlink-Netzwerkkarten und dem Netwerksystem 3+ entwickelte 3Com noch mit der 3Station im Jahre 1986 die erste "Diskless-Workstation" auf Basis der PC-Architektur. War die Fixierung auf den PC anfangs ungemein erfolgreich, so barg sie auch große Risiken. So ging Bill Krause, der erste Geschäftsführer von 3Com, im Jahre 1987 eine enge Kooperation mit IBM und Microsoft ein und verpflichtete sich, für das in der Entwicklung befindliche Betriebssystem OS/2 die Netzwerkfunktionen zu entwickeln. Als sich Microsoft und IBM über OS/2 zerstritten und die Entwicklung zeitweise gestoppt war, musste 3Com sein Netzwerk "3+ Open LAN Manager" dennoch vertragsgerecht auf den Markt bringen. Nach der Erinnerung von Eric Benhamou, dem zweiten Geschäftsführer von 3Com, stand die Firma nah am Rande des Bankrotts. Es dauerte bis 1992, dass 3Com nach dem Desaster wieder Gewinne schreiben konnte.
1997 entschloss sich 3Com, im steten Kampf mit dem hartnäckigen Konkurrenten Cisco Systems voll auf den Online-Hype zu setzen, und kaufte für 6,5 Milliarden Dollar die Firma US Robotics, um das "AOL der Zugriffstechnik" zu werden, wie Benhamou es damals formulierte. Die erhofften Synergien entwickelten sich eher schleppend, nur der Börsengang der Palm-Sparte war erfolgreich. Auf den Internet-Boom versuchte 3Com, mit einer Internet Appliance namens Audrey (nach Audrey Hepburn) zu reagieren. Das für 500 Millionen Dollar entwickelte Gerät erwies sich jedoch als grandioser Flop, als gleichzeitig mit dem Marktstart die "Dotcom-Blase" platzte.
Erfolgreicher verlief eine Allianz mit der chinesischen Firma Huawei, durch die 3Com gegenüber Cisco beim Vertrieb von Netzwerk-Equipment in China punkten konnte. Das Gemeinschaftsunternehmen H3C wurde in China zum Marktführer bei Lösungen für die Videoüberwachung, ehe es komplett von 3Com übernommen wurde, das mit dieser Übernahme die Unternehmensführung nach China verlagerte. Heute steht 3Com wieder gesund da und konnte zuletzt einen Nettogewinn von 94,6 Millionen Dollar vorweisen.
Quelle :
www.heise.de
Arbeits.- Testrechner
:
Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit
TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )
SiLæncer
Cheff-Cubie
Beiträge: 191383
Ohne Input kein Output
40 Jahre Unix
«
Antwort #13 am:
05 August, 2009, 13:14 »
In der Zeitrechnung der IT gelten 40 Jahre schon als Äonen. Auf eine solch lange Geschichte kann das Betriebssystem Unix – oder aus heutiger Sicht die Betriebssystemfamilie der Unices – zurückblicken. Die Initialzündung leistete AT&T 1969 als man entschied, die bislang am MIT-Gemeinschaftsprojekt Multics arbeitenden Bell-Labs-Mitarbeiter wegen Zweifeln an der Realisierbarkeit des Projekts zurückzuziehen. Zu diesen gehörten unter anderem Ken Thompson und Dennis Ritchie. Ersterer hält aber an der Idee eines Multi-User-Systems als Arbeitsumgebung fest und nutzt im August 1969 die urlaubsbedingte Abwesenheit seiner Familie, um in je einer Woche Assembler, Betriebssystem, Editor und Shell per Lochkarten auf eine PDP-7 zu übertragen.
1970 zieht das zu der Zeit Unics genannte System auf eine PDP-11 um, ein Jahr später ist das Unix Time-Sharing System First Edition (V1) fertig. Eine der weitreichendsten Änderungen erfuhr Unix allerdings erst 1973: Dennis Ritchie und Ken Thompson schrieben das Betriebssystem in der Sprache C komplett neu und öffneten damit dem Weg für Portierungen auf andere Hardwareplattformen. 25 Jahre später ehrte der damalige US-Präsident Clinton die Arbeit der beiden, indem er ihnen mit der "National Medal of Technology" die höchste staatliche Auszeichnung verlieh.
Heute deckt die Familie der "unixoiden" Betriebssysteme vom Embedded-System bis hin zum Supercomputer fast das gesamte IT-Gerätespektrum ab. Éric Lévénez hat die Abhängigkeiten und Verwandtschaften von rund 150 Unix-Derivaten und -Dialekten analysiert und grafisch in seiner
Unix-History
aufbereitet.
Quelle :
www.heise.de
Arbeits.- Testrechner
:
Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit
TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )
SiLæncer
Cheff-Cubie
Beiträge: 191383
Ohne Input kein Output
Harwell: 60 Jahre alter Rechner soll wieder starten
«
Antwort #14 am:
04 September, 2009, 19:22 »
Im Jahre 1951 wurde der Computer namens Harwell in Großbritannien das erste Mal hochgefahren. Vorwiegend wurde er zu Forschungs- und zu Kalkulations-Zwecken eingesetzt. Nun soll er den Betrieb wieder aufnehmen.
Seinen ursprünglichen Aufgaben wird der mittlerweile technisch weit überholte Rechner höchst wahrscheinlich im National Museum of Computing in England nicht mehr nachgehen.
Bevor der inzwischen in die Jahre gekommene Rechner wieder gestartet werden kann, müssen noch einige Wartungsarbeiten durchgeführt werden, hieß es. Vermutlich werde die Restauration ein Jahr dauern.
Dick Barnes ist einer der beteiligten Erbauer des 1949 entworfenen Rechners. Er selbst zeigt sich sichtlich erfreut darüber, dass der Computer nach über 30 Jahren wieder aktiviert werden soll.
Im Allgemeinen könne Harwell eine beachtliche Arbeitszeit vorweisen, hieß es auf dem
Online-Portal RedOrbit
.
Quelle :
http://winfuture.de
Arbeits.- Testrechner
:
Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit
TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )
Drucken
Seiten: [
1
]
2
3
4
5
6
Nach oben
« vorheriges
nächstes »
DVB-Cube <<< Das deutsche PC und DVB-Forum >>>
»
PC-Ecke
»
# Hard-und Software Allgemein
»
Thema:
Computer-Geschichte...