Diskussion:Computer/Archiv

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 3 Jahren von Fabian von Treuen in Abschnitt Menschlicher Computer bei Begriffsgeschichte
Zur Navigation springen Zur Suche springen

Erfinder?

In der Einleitung steht, dass Konrad Zuse der Erfinder des Computers ist. Klar, er hat im Alleingang einen Computer erdacht und auch gebaut, aber sollte nicht Charles Babbage als der Erfinder gelten?89.56.232.114 23:52, 23. Jun 2006 (CEST)

meine ich nicht. Unter einem "Computer" wird i.a. eine frei programmierbare Rechenmaschine, und das waren die Rechenmaschinen von Hr. Babbage definitiv nicht. Der Erfinder eines Funktionprinzipes ins ia. nciht identisch mit dem Erfinder der technischen Anwendung dieses Prinzipes. Gruss Andreas König 08:03, 19. Okt. 2006 (CEST)
Es gibt keinen Erfinder des Computers. Unter vielen anderen könnten diesen Titel beanspruchen: Wilhelm Schickard, Blaise Pascal, Gottfried Wilhelm Leibniz, Joseph-Marie Jacquard, Charles Babbage, Herman Hollerith ... und mit dem elektrischen Strom kommen nochmal 100 dazu. Suricata 08:19, 19. Okt. 2006 (CEST)
Im Gegenteil, die Analytical Engine von Charles Babbage ist frei Programmierbar und Nachbauten von 1990 haben gezeigt, dass seine Konstruktion auch tatächlich Funktioniert hätte, wenn er die finanziellen Mittel gehabt hätte sie zu bauen. Es ist wohl am besten, die größten Pioniere auf diesem Gebiet zu nennen, um der Community die Möglichkeit zu geben, zusammenzusuchen, worin ihr konkreter Beitrag bestand. Erst danach kann man wirklich vergleichen, wenn fehlinformationen wie "das waren die Rechenmaschinen von Hr. Babbage definitiv nicht" herausgefiltert wurden. 84.161.121.123 19:56, 1. Dez. 2006 (CET)
Das allgemeine Prinzip des Computers wurde ersonnen von Charles Babbage; das ist schlichtes Faktum. Alles Vorherige, einschließlich seiner eigenen "Differenzmaschinen", waren Rechenmaschinen, die dediziert, auf einen bestimmten Zweck zugeschnitten waren und denen die freie Programmierbarkeit fehlte. Diese Eigenschaft war der gedankliche Quantensprung gegenüber ALLEM Vorherigen.
Der erste Erbauer eines (halbwegs) funktionierenden Modells war Zuse. Er hat aber nur konkrete Einzelheiten eingebaut; sein Gerät - und alle folgenden - haben nur das Prinzip von Babbages "Analytischer Maschine" konkretisiert und diese Konkretisierungen weiterentwickelt, auf dem Boden von Babbages Konzept.
Also muß Babbage als der Erfinder genannt werden (im Zusammenhang mit Ada Lovelace; im Folgenden dann Zuse als erster Realisierer, und Turing als der, der das Konzept formal faßte und klärte (mit seinen "Moms" und "Super-Moms" und deren Äquivalenz)).
Daß er es nicht wird, sondern nur als ein Bastler unter vielen hingestellt wird, ist eine SCHANDE.
Yog-S, 213.102.97.66 04:42, 4. Mai 2007 (CEST)
Also - ich finde auch, das Konrad Zuse nicht als Bastler sondern definitiv als Erfinder aller heutigen Computers gelten sollte. Die beiden Wikipedia-Artikel über Konrad_Zuse und insbesondere den Z3, siehe: http://de.wikipedia.org/wiki/Zuse_Z3 machen diesen Sachverhalt überdeutlich.

Geschichte des Computers separat

wie wäre es die geschichte des computers auf eine eigene seite zu verschieben? -- chris

Noch nicht, solange im Hauptartikel so wenig steht. HJH
Ich bin dafür, da sich mittlerweile einiges angesammelt hat und dieser Artikel vielleicht mehr über Computertechnologie allgemein sagen könnte(Abstimmung?). In Ergänzung zum Punkt unten vielleicht diesen Artikel auf Hardware-Geschichte und Software-Geschichte aufteilen. --Der Ersteller 17:57, 11. Apr 2005 (CEST)

Jedoch sollte das Konzept "Computer", das sich halt historisch entwickelt hat, in seinem systematischen Aufbau nicht auseinandergerissen werden! (Babbage/Lovelace; Turing; von Neumann und Alternativen; Parallelarchitekturen) Dadurch kommt automatisch ein Stück Geschichte rein; das sollte heil bleiben.

Der herausnehmbare Teil bezöge sich also auf die Entwicklung der Hardware; was sehr gut in ein Kapitel "Der PC" übergehen könnte (falls man daraus nicht eh einen eigenen Artikel machen will). Yog-S


Und wie wäre es, die Geschichte in zwei Spalten darzustellen:
- Hardware-Meilensteine (nicht nur CPUs, auch bahnbrechende Peripherie oder Architektur)
- Software-Meilensteine (Programmiersprachen, Betriebssysteme, ...)
Ktnagel

Zweispaltiges Seitenlayout ist schwer zu pflegen
Ausserdem schlecht bei schmalem Browser-Fenster
HaJo Gurt 18:16, 6. Jul 2003 (CEST)
Ich Stimme HaJo Gurt zu (vgl. mein Statement zum Hauptitem) --Der Ersteller 17:57, 11. Apr 2005 (CEST)

Ich bin mir sicher dass der sog. Laptop auf der rechten Seite ein Notebook ist. Mit nem Laptop konnte man jemanden tod schlagen. Ein Laptop ist ca 15cm dick...

Fehler?

Ein Charakteristikum der „Von Neumann-Architektur“ ist, dass diese Binärzahl (beispielsweise 65) => widerspricht es sich hier nicht? Eine Binärzahl ist doch nicht "65", dies ist für mich eine Dezimalzahl. --Dr.G0nzo 23:01, 2. Jan 2006 (CET)

Transputer

Wieso is eigentlich nix über Transputer drin? schließlich basieren eigentlich die meisten multi-Prozessorsysteme auf dem alten Prinzip. (ichnixda)

Weil die meisten Autoren keine Ahnung von der Materie haben!
Ich habe z.B. keine Ahnung davon, gehe jedoch nach Lesen des Artikels Transputer davon aus, das dieses nicht essentiell notwendig ist, aber dennoch in der Geschichte erwähnt werden sollte. Da du dich in dem Bereich scheinbar auskennst: Warum schreibst du nicht einfach etwas dazu? --Der Ersteller 17:57, 11. Apr 2005 (CEST)

das Jahr der Z1

Ich habe eine Quelle, wonach Zuse den Z1 bereits 1936 fertigstellte. Was stimmt nun?

In einem Zettel von Deutschen Technikmuseum Berlin steht was von 1938. Kann allerdings auch sein, dass das Foto von dann ist. --Blaselfasel 01:50, 27. Jun 2004 (CEST)



Es wäre hilfreich, wenn ein Artikel über Computer geschrieben werden könnte, der auch nicht ganz so versierten Leuten ein Hilfe ist. Interessant ist die Entstehung, der Jetztzustand mit den verschiedenen Varianten und die voraussichtliche Zukunft des Computers.

Am 14.5.04 habe ich einen Artikel gelesen, den ich bis auf die Zukunft sehr gut fand. Als ich mich nach dem Autor erkundigen wollte, konnte ich den Artikel nicht mehr finden. Wie ist es also mit einem Text für weniger gute "Fachleute"?


Wieso wird der von-Naumann-Rechner nicht erwähnt?


Und wieso wird bei "Antike" die Rechenmaschine aus Griechenland nicht erwähnt. Stand mal kurz drin wurde aber wieder wegzensiert. Ich fands passend, zählt ja immerhin auch zur Gruppe der "Befehlsverarbeitenden Maschinen" und ist damit doch eigentlich näher an heutigen PCs als Rechenbretter...

game-face-link

Der Link http://www.game-face.de/article.php3?id_article=106 führt zu einem Interview mit dem Gründer des Berliner Computerspiele-Museums. Sicherlich nicht das Beste, was das Web zum Thema Computer zu bieten hat ;)) Hat wer was dagegen, den Link zu entfernen? --Tfox 10:56, 1. Mär 2005 (CET)

Laie

Als Laie erhoffte ich mir, zu erfahren, wie ein Computer mit nur 2 Zuständen, (Strom, nicht Strom), komplexe Aufgaben erfüllt. Ich meine, selbst das Morsealphabet hat zwar im Prinzip auch nur 2 Zeichen, aber effektiv doch 3, nämlich die Pause zwischen den Wörtern, denn ansonsten wüsste man ja nicht, wo welches Wort anfängt und welches aufhört. Versteht ihr mein Verständnisproblem? Ich versuchs mal so: Die kleinste Informationseinheit ist doch ein Bit, für den Computer jedoch ein Byte, also 8 Bit. Doch wie versteht der Computer, wo und wann ein Byte anfängt und aufhört? Sorry, bin eben ein Laie... 145.254.216.33 14:08, 4. Mär 2005 (CET)

Das ist ganz einfach: Der Speicher wird in Sektionen eingeteilt. Jede Sektion entspricht z.B. 32 Bits. Um jetzt das 100. Wort(Im Beispiel Vierfachbyte) zu lesen, liest man 32 Zeichen ab der Bit-Position 100 * 32 (ev. auch 99*30, wenn man die Positionen 0-31 auch verwenden will). --Der Ersteller 17:57, 11. Apr 2005 (CEST)
Vielleicht hilft hier auch der Artikel zu Adressierung (Datenverarbeitung) weiter -- Linne, 14.04.05

Stimmt, das sollte bei Bit erwähnt werden. Nicht nur die Tatsache, Strom fliest oder kein Strom fliest spielt eine Rolle, sondern auch die Zeit. Darüber ist definiert, wann ein Bit aufhört und das nächste anfängt. Der Takt wird bei Computern inzwischen schon mit GHz angegeben. Meistens wird dieser über eine extra Leitung (Clock) übertragen. -- bobosch

Hmm also ich vermisse eine Erklärung der Funktionsweise; deine Erklärung, Der Ersteller, erklärt den Binärcode. Ich dachte an etwas in dieser Art, will es aber als Halblaie nicht direkt in den Artikel setzen:

"Ein Computer ist eine Verschaltung von Transistoren, "Ein- und Ausschaltbaren Leitern". Man kann durch Anlegen einer Spannung dauerhaft verändern, ob ein Transistor Strom leitet. So kann man die Schaltung verändern. Das Ergebnis eines Rechenvorgangs ist nun nur von der Schaltung abhängig. In diesem Sinne ist ein Computer eine veränderbare Zuordnungsfunktion, weshalb er auch Rechner genannt wird." ~selbstgeschrieben

--Hidden 21:46, 13. Okt. 2007 (CEST)

optischer computer

Unter dem Abschnitt Zukunft könnte man vll. noch den optischen Computer nennen und in einem anderen Artikel erklären.

IMHO ist es sinnvoller, wenn der Verweis inkl. Text einem existierendem Artikel Optischer Computer folgt. --Der Ersteller 17:57, 11. Apr 2005 (CEST)

Review

Ich habe den Artikel zu den Reviews gestellt. Anschließend möchte ich ihn dann zu einem "Exzellenter Artikel" Kandidaten machen. Mehr zu alldem unter: Wikipedia:Review . Abzt 11:16, 11. Aug 2005 (CEST)


Mit "Exzellenter Artikel" habe ich noch ein wenig Bauschmerzen. Der Artikel ist doch im Moment nicht Fisch, nicht Fleisch. Wir haben ganz oben einen guten Fließtext, dann eine etwas holprige Liste und am Ende eine "siehe auch"-Wüste. Das eigentliche Problem ist aber, dass der Begriff Computer zu vielseitig ist, um ihn auf einer Seite darzustellen. Vielleicht sollte man ihn "portalartig" zerlegen in seine verschiedenen Facetten:

  • Einstiegstext mit kurzer Begriffserklärung/Definition und Unterthemenliste
  • Funktionserklärung nichttechnisch (Teile von "Grundprinzipien" ohne von-neumann und turing)
  • Definition und Typen (der Rest von "Grundprinzipien", weiter ausgebaut, andere Typen (analog, quanten, theoretische))
  • Geschichte (die Liste, aber noch etwas Erklärung dazu. durchaus die Bedeutung der Meilensteine herausarbeiten)
  • Bedeutende Persönlichkeiten (zu jedem noch einen Satz dazu)
  • Konzepte (die Linklisten, etwas stärker pädagogisch strukturiert)

Der komplette Themenbereich IT läßt sich IMHO auf 3 Arten betrachten (vom Interesse her, nicht vom OMA-Faktor):

  • Informatik (da gibt es das Portal:Informatik)
  • Populärwissenschaftlich (also für Normalmenschen)
  • Technisch (das sind wir Freaks *g*)

Diese Seite sollte sich an die mittlere Zielgruppe wenden, driftet aber sehr leicht in die dritte ab. Mit obiger Struktur könnten wir hier eine klare Trennung erreichen.

Die einzelnen Abschnitte müsste man eventuell auslagern, die Seite ist jetzt schon sehr lang. Aber das hat Zeit...

Just some random idea by Jacob000 20:19:15, 12. Aug 2005 (CEST)

Was ist ein Computer

Ich finde, das nachfolgendes Zitat nicht gerade viel erklärt (Ist unter Grundlagen):

Grundsätzlich sind zwei Bauweisen zu unterscheiden: Ein Computer ist ein Digitalcomputer, wenn er mit digitalen Geräteeinheiten digitale Daten verarbeitet; er ist ein Analogcomputer, wenn er mit analogen Geräteeinheiten analoge Daten verarbeitet.

--TheWinner 18:58, 13. Mai 2006 (CEST)

Ich stimme zu, daß hier noch lange nicht von einem "excellenten Artikel" gesprochen werden kann. Erstens wird momentan fast ausschließlich der Heimcomputer (bzw. PC) behandelt, zweitens erwartet der Suchende in diesem Artikel doch Grundlegendes zur Verwendung und Verweise auf die vielen Einsatzarten.

Den Vorschlag Jacobs zur Portalunterteilung würde ich als wünschenswert betrachten; dazu gehören auf dieser Seite m.E. nach die Erwähnung der unterschiedlichsten Einsatzmöglichkeiten von Computern - diese würde ich dann unter den jeweiligen Begriffen abhandeln.

Zum Beispiel "Embedded Systems", "ASICs" oder "Mainframe" sind Begriffe, die unbedingt auf diese Seite gehören, allerdings nicht einmal ansatzweise beschrieben werden können. Hier würde ich mich auf die Einsatzbereiche und Anwendung - für Normalmenschen nachvollziehbar - beschränken; Einzelheiten und technische Merkmale gehören dann auf die entsprechenden Artikel verteilt.

Ergo kann fast 80% dessen, was hier steht nach Personal Computer verschoben werden und gehört überhaupt nicht hierhin. Wichtige Bereiche wie Rechenzentren und computerbasierte Informationsverwaltung sind nicht mal ansatzweise vorhanden. Der Besucher sollte eine Antwort auf die Frage erhalten, was alles ein Computer ist. matadoerle Okt 2005

Finde der Artikel macht sich schon wirklich besser, danke für euer Bemühen. -- Matadoerle 09:04, 14. Okt 2005 (CEST)

Ich würde mich gerne an die Arbeit machen, einen brauchbaren Artikel über Computer zu verfassen, der auch einem, in dieser Thematik nicht bewanderten Menschen, einen relativ guten Einblick gewährt. Als Vorschlag würde ich alle Diskussionsbeiträge zusammenfassen und in den Artikel einfliessen lassen, dazu den vorgeschlagenen Aufbau verwenden. Immer mit der Sicht auf: Was will jemand wissen, der in Wikipedia stöbert oder nachschlägt? Ich mache mich Offline an die Arbeit und lasse die Ergebnisse dann nächste Woche einfliessen. Ist das OK? -- Jan911 11:06, 4. Nov 2005 (CET)

Diskussion aus dem Review vom August 2005

Review-Baustein war bereits gesetzt, der Artikel hier aber nicht aufgelistet. Der Artikel scheint ganz O.K. zu sein. IMO etwas trocken; Die Geschichte ist eher nur eine interne Linksammlung, für sich allein stehend ist sie unverständlich. Der Abschnitt "Siehe auch" ist sehr groß. Sicher ein sehr schwieriges Thema, da sehr umfassend. --Harald Mühlböck 15:41, 12. Aug 2005 (CEST)

  • Abschnitt Grundprinzipien: Die "Bausteine" bedingter Sprung etc. mit der Turing-Maschine sind nicht allgemeingültig, sondern sind auch zu anderen Modellen äquivalent (Lambda-Kalkül etc.), auch wenn sie die in der Hardware genutzten sind. Man sollte die Verhältnisse zwischen Automat, Turing-Maschine, Programm und Software besser herausstellen.
  • Wie bereits angemerkt: der Abschnitt "Geschichte" besteht nur aus Listen.
  • Bilder fehlen.

Phrood 03:15, 14. Aug 2005 (CEST)

Dieser Artikel

siehe Mikrocomputer

hier sollten noch die bilder übersiedelt werden, diese suggerieren in summe, hier würden explizit die Mikrocomputer behandelt. ich fände gut:

  • einen von den Mikrocomputern (PCs),
  • ein Mainboard mit CPU,
  • einen Grossrechner,
  • ein bild, das irgendwie den Begriff „Software“ oder „Betriebssystem“ visualisiert
ich hab da mal eine visualisierung der Gesamtheit eines Linux-Kernels gesehen ...

--W!B: 05:17, 27. Feb 2006 (CET)


Sind Workstations nicht mehr handelsüblich ? Dieser Aufteilung fehlt eine Struktur --Staro1 05:37, 27. Feb 2006 (CET)

recht hast Du! Genau nach der Struktur der Aufteilung such ich ja.. (allgemein, welche meinst Du den genau?) --W!B: 05:48, 27. Feb 2006 (CET)
PS: Workstations zählt man zur Kategorie:Mikrocomputer --W!B: 20:54, 27. Feb 2006 (CET)

seit wann ist das eine Software-Architektur ? --Staro1 23:30, 18. Mär 2006 (CET)

Komponenten der Von-Neumann-Architektur

Das Bussystem ist keine wesentliche Komponente eines Rechners mit Von-Neumann-Architektur. Bussysteme waren in den Zeiten vor 1970 noch unbekannt und technisch nicht machbar. In den klassischen Rechnern waren die verschiedenen Module des Rechners (oft mit viel Aufwand) sternförmig und direkt gekoppelt. Bussysteme wurden erst mit dem Aufkommen von Schaltkreisen mit Open-Collector- bzw. Open-Drain- und Tri-State-Ausgängen praktisch nutzbar. --Reseka 08:32, 5. Jul 2006 (CEST)

Warum Links entfernt?

Warum wurden die zugefügtn Links sofort wieder entfernt???

weil sie nicht Wikipedia:Weblinks entsprechen. Und bitte unterschreibe Diskussionsbeiträge in Zukunft mit vier Tilden (~~~~). --Kurt seebauer 20:09, 16. Aug 2006 (CEST)

Betriebssystem / Fehler

Mir fehlt hier ein Satz zu Betriebssystemen. Und die Fehler vom Januar (Binärzahl 65) sind immer noch nicht behoben. Der ganze Artikel gefällt mir irgendwie nicht (ich verstehe das zwar, aber wohl nicht jede Oma). Schade, weder lesenswert noch exzellent. --Kungfuman 08:47, 26. Aug 2006 (CEST)

Den Fehler habe ich jetzt behoben. Allerdings stimme ich zu -- der Artikel ist weder lesenswert noch exzellent. Willst du einen Beitrag zum Aufpolieren leisten? Evtl. kann man ja bei der enWP Anleihen nehmen, das habe ich noch nicht nachgeschaut. --Elwood j blues 08:11, 9. Nov. 2006 (CET)

Geschichte

Vannevar Bushs fikitiver Analogrechner Memex sollte als wichtiger Vorläufer des PC's in den Artikel aufgenommen werden! --MyKey_ 17:27, 3. Jan 2006 (CET)

Schaubild (Zeitleiste)

Hardware: Der erste PowerMac kam lt. System 7 im März 1994 auf den Markt und nicht 1999.

Anwendungen: Der erste Compiler wurde 1952 für A-0 entwickelt. --Bernd 19:31, 3. Feb 2006 (BRST)

ich finde die zeitleiste war übersichtlicher als der text...

Erster Transistor-Computer?

Nach Erstellung von TX-0 habe ich Zweifel, wer der erste war. Die Angaben schwanken im Web und auf der en.WP bei TRADIC zwischen 1953 und 1955, vermutlich 1954 oder 1955. Quellen fehlen. TX-0 könnte eher oder gleichzeitig gewesen sein. Angaben ebenfalls ab 1953. Vermutlich 1955. Evtl. TX-0 eher oder bekannter, vermutlich nicht vollständig mit Transistoren. --Kungfuman 16:18, 13. Sep 2006 (CEST)

Analogrechner

In der Geschichte fehlen vollständig die Analogrechner. Sie sollten an geeigneter Stelle mit erwähnt werden. (In den 1970er Jahren wurden sie für bestimmte Problemstellungen noch häufig angewandt. Wie der STand heute ist, weiß ich nicht.) --Hutschi 12:48, 14. Sep 2006 (CEST)

Erwähnt und verlinkt sind sie doch (immerhin). Allerdings ist auch der Artikel Analogrechner kanpp im Vergleich zum engl. Artikel. --Kungfuman 19:23, 14. Sep 2006 (CEST)

was heißt hier virtuell bis zu 6 ghz? ein core2duo gut übertaktet schaft bis zu 6.8 ghz extremes übertrakten natürlich drüber

mann darf die mehrkern architektur auch nicht vergessen

Entwicklung im 21. Jahrhundert

Was soll den das heisen? "Prozessorgeschwindigkeiten von bis zu 4 GHz und virtuell bis zu 6 GHz" Seit wann ist der Prozessortakt die Prozessorgeschwindigkeiten? Und was bitte sind virtuelle 6 GHz???

Wie bitte? "2003 lieferte Apple den PowerMac G5 aus, den ersten Computer mit 64-Bit-Prozessoren für den Massenmarkt." Erster 64-Bit-Prozessoren für den Massenmarkt war meines wissens der Alpha von DEC. War sicher nicht so erfolgreich wie der Apple, aber sollte für den Massenmarkt sein.

Ganzer absatz ziemlich fragwürdig. Sollte von einem fachmann neu geschrieben werden. oder löschen!--From.nowhere 05:35, 3. Mär. 2007 (CET)

Ferranti Mark I

Zwischen dem Z4 und dem UNIVAC I lag noch der britische Ferranti Mark I, wenn das jemand einfügen könnte. -- 172.174.92.129 12:59, 15. Mär. 2007 (CET)

Wikibook "Computergeschichte

Ich habe ein Wikibook "Computergeschichte" begonnen und suche noch dringend nach Mitstreitern. Interessierte bitte einfach bei Wikibooks in dem Buch vorbei schaun.81.201.224.13 11:29, 13. Apr. 2007 (CEST)

Vorschlag eines Neuansatzes

[Vorbemerkung: Die Wikipedia-Formatierungsautomatik sabotiert die Einrückungen teilweise; ein Blick auf das Eintragsfeld ist nützlich.]

Dieser Artikel, so vorbildlich flüssig geschrieben (Kompliment!) und kenntnisreich er ist, ist doch ziemlich schlecht, weil das Wesentliche des Begriffes kaum herauskommt. Statt dessen wühlt man in Details herum. Nichts gegen eine historische Betrachtung, auch nicht gegen Vorläufer; aber das spezifisch Neue, der Quantensprung, kommt nicht richtig heraus; er ersäuft in (für das Verständnis des Prinzips; nicht für die technische Entwicklung) unwichtigen Details. (Von denen manche hier wirklich nichts verloren haben; z. B. die Entwicklung der Arithmetik.) Auch die technischen Details sind interessant, aber nachrangig. Hier geht es vor allem darum, das Prinzip zu klären!!

So hab ich, nachdem ich hier an mehreren Stellen kritisiert habe, mich mal drangesetzt und eine Gliederung aufgestellt, wie ich es mir vorstelle, und teilweise auch schon ausgeführt (das erhebt natürlich noch keinen Anspruch auf Endgültigkeit). Mein Vorschlag für einen Umbau:

- allgemeine Definition (ruhig etwas(!) abstrakt):

"Der Computer (vom englischen to compute = 'berechnen'; ein computer war dort in früheren Zeiten jemand, der berufsmäßig Berechnungen ausführte) ist ein Gerät, das Zahlen und abstrakte Symbole, die in seinem Inneren in Form physikalischer Zustände von Aufbewahrungselementen repräsentiert sind, arithmetisch und logisch verarbeitet. Die in ihm fest vorhandenen Verarbeitungsschritte sind nur sehr begrenzter Natur; sie sind jedoch frei kombinierbar, und durch geschickte Kombination von ihnen (Programmierung) lassen sich umfangreiche Funktionen erzeugen, die sehr komplexe und komplizierte Aufgaben lösen können, und das i. A. weit schneller als ein Mensch. Ergebnisse seiner Tätigkeit können in verschiedener Form ausgegeben werden, abhängig davon, was für Ausgabegeräte an ihn angeschlossen sind: Zahlen, Texte, logische Ausdrücke, Grafik, Sound, Aktionen von Aktoren, (...). Er wird daher eingesetzt in/für ... .

Das Konzept des Computers wurde erfunden von Charles Babbage in seiner "analytical engine"; ausformuliert wurde es von Alan Turing ("Turingmaschine"). Der erste gebrauchsfähige Computer wurde erbaut von Konrad Zuse. Von seinen Vorläufern, den diversen Rechenmaschinen, die nur schematisch einen beschränkten Bestand von Rechenarbeiten durchführen können, unterscheidet der Computer sich qualitativ durch seine Möglichkeit völlig freier Programmierbarkeit.


- Vorgeschichte: die div. Rechenmaschinen (nicht zu ausführlich; -> eigene(r) Artikel!)
- Darlegung des Arbeitsprinzips:
der Quantensprung (= die eigentliche Erfindung): die "analytische Maschine" von Babbage (Datenspeicher und Prozessor ("the Mill") als die wesentlichen Elemente; dabei Beschreibung mit Turing'schen Begrifflichkeiten (Lese-/Schreib-Kopf; Papierstreifen/Linearspeicher; Befehlssatz (und Prozessormodi)/Programm, mit Ablaufbeispiel)

[diesen Abschnitt hab ich erst mal relativ kurz gehalten; bei Bedarf kann man zur besseren Veranschaulichung die Turingmaschine genauer beschreiben (ein reiner Link auf die Seite "Turingmaschine" wäre zwar möglich, scheint mir den Gedankenfluss aber unnötig auseinanderzureißen; und bei etlichen Passagen masturbieren dort Mathematiker.)]

Simulation; "Moms"; "Supermoms"; deren Äquivalenz: COMPUTER SIND "SUPERMOMS"
und jeder kann jeden anderen simulieren
- Digitalisierung; binäres System; standardis. Datenbreite (8 bit = 1 Byte)
- Datenarten: aktive (Prozessorbefehle) vs passive ("Datenmaterial")
- letztere:
- Datenart "Zahl": Zahlen stehen für ihren eigenen Wert
- Datenart "String": Kette beliebiger Zeichen, jedes codiert durch eine Zahl; Zeichencodes


Ich stell mir das etwa so vor:
- allgemeine Arbeitsweise:

Im analogen Computer werden die zu verarbeitenden Größen in analoger Form (zumeist als Stromstärke) dargestellt und verarbeitet. (...? [da weiß ich nicht so genau Bescheid])

Im digitalen Computer - dies sind die überwältigende Mehrheit der gebauten Computer - sind die zu verarbeitenden Größen nach gerasterter Messung gerastert dargestellt; i. A. binär, d. h. von zwei festgelegten möglichen Zuständen eines materiellen Trägers wird - je nach momentanem Wert der zu verarbeitenden Größe - jeweils einer angenommen und bis auf Weiteres aufrechterhalten (z. B. 'Fahne oben' oder 'Fahne unten'; 'Stromfluss 1 Einheit' oder 'Stromfluss 0 Einheiten'; 'Magnetisierung aufwärts' oder 'Magnetisierung abwärts').

Dieses elementare Darstellungsquantum wird ein bit genannt (von engl. "'binary unit", binäre Einheit). (Das Binärsystem wird vorzugsweise verwendet, weil bei einer störenden Schwankung im Träger (z. B. in der Stromstärke) unter feinerer Rasterung viel eher ein verfälschter Wert abgelesen wird als unter grober.)

Durch 1 bit lassen sich die Zahlen 0 oder 1 repräsentieren; durch Kombination mehrerer bits (mit Beachtung ihrer Reihenfolge) auch weitere Zahlen. (Üblicherweise wird mit Blocks von 8 bit (ein "Byte") oder Vielfachen davon gearbeitet.) Jedoch können, bei Verwendung einer Zuordnungsvorschrift (Code), die Zahlen statt für ihren eigenen Wert auch für im Code festgelegte Symbole stehen (Schriftzeichen, logische Zeichen, Grafikzeichen, Klänge, Aktionen von Aktoren). Diese dargestellten Zahlenwerte und Codesymbole heißen Daten; die Orte, wo sie gehalten werden, heißen Speicher; sie sind durchnummeriert (sog. Adressen; passender ist aber der Vergleich mit Hausnummern).

Im Speicher vorhandene Daten werden zur Verarbeitung von einem Bauteil namens Prozessor stückweise eingelesen. Der Prozessor ist das aktive Element im Computer, und beim Gerätestart läuft er von allein an und dann ständig weiter; wenn er nichts zu arbeiten hat, stößt er sich selbst an (IDLE-Rückkopplung). Alle anderen Bauteile sind im Prinzip nur reagierender Natur. Im Prozessor ist auf der physischen Ebene ein kleiner Satz einfacher Operationen fest eingebaut. Diese sind numeriert; liest der Prozessor eine bestimmte Nummer ("Befehl"), so führt er die entsprechende Operation aus. Viele Prozessoren haben mehrere Befehlssätze ("Modi", Einzahl: "Modus"), zwischen denen nach Bedarf hin- und hergeschaltet werden kann, was ebenfalls durch Befehle bewirkt wird.

Die Prozessoren können von ihren Befehlssätzen her aber nicht beliebige sein; manche Prozessoren sind mit ihren Befehlssätzen in der Lage, andere Prozessoren zu simulieren (d. h. sich gegenüber einem Programm (s. u.) so zu verhalten, als wären sie der andere Prozessor), aber andersherum geht das nicht unbedingt. Turing hat in seiner Theorie gezeigt, dass es Prozessoren gibt, die alle anderen Prozessoren simulieren können; diese besonderen Prozessoren können alle auch einander simulieren. Nur diese Prozessoren sind geeignet, in einen Computer Verwendung zu finden. Der Prozessor mit der kleinsten Zahl an eingebauten Befehlen insgesamt hat 4 Modi zu jeweils 7 Befehlen, also 28 Befehle insgesamt; darunter geht es nicht.

Befehle fallen also ebenfalls unter die Daten; gegen Verwechslung mit den o. g. Datenarten müssen sie entweder in getrennten Speicherbereichen gehalten werden, oder es muss ein Markierungszeichen existieren. Eine Gesamtheit von Befehlen heißt ein Programm. Wird der Prozessor auf die Speicheradresse angesetzt, in der der erste Programmbefehl steht, beginnt er, es abzuarbeiten (er muss die Befehle nicht unbedingt in der Reihenfolge der Speicheradressen einlesen; das hängt vom Inhalt des Programms ab - es gibt auch Sprungbefehle).

Eine spezielle Befehlsart ist der Interrupt: ein Signal mit Vorrang an den Prozessor, das ihn veranlasst, die Abarbeitung des laufenden Programms zu unterbrechen und etwas vordefiniertes Anderes zu tun.

Ferner benötigt der Computer noch Geräte zur Eingabe der zu verarbeitenden Daten, der Steuerbefehle und der Programme und Geräte zur Ausgabe der Ergebnisse.


Ein spezielles Programm ist das Betriebssystem: dieses ist beim Start des Rechners das erste, das im Computer läuft; es verwaltet seine Ressourcen und verleiht sie an Anwendungsprogramme. Dies ist um so wichtiger, wenn mehrere Programme 'gleichzeitig' auf dem Computer laufen (Multitasking) (in Wirklichkeit laufen sie abwechselnd in schnellem Wechsel, was dem Beobachter als gleichzeitig erscheint), und auch wenn mehrere Benutzer gleichzeitig verschiedene Programme am Computer benutzen wollen (Multiuser-Betrieb).


[Wenn das geleistet ist, weiß der (mitdenkende) Leser, was ein Computer abstrakt IST. Jetzt sollte er erfahren, wie dieses abstrakte Konzept praktisch konkreter werden kann, und dabei durchaus nicht nur die gängigste Variante kennenlernen, sondern eine Ahnung von der Weite des Begriffs bekommen:]

- Konkretisierungen:
- von-Neumann-Konzept und Harvard-Konzept (Unterschied: Rückkopplung in die Sw; evolutionäre SW-Entwicklung)
- LISP-Konzept
- Konzept Produktionssysteme

[Wie läuft nun so ein Konzept in der Realität ab? (hierbei natürlich Konzentration auf die erste Variante:)]

- technische Ausführung:
- Datenspeicher
Arbeitsspeicher mit linearem Adressensystem / Codes (ASCII (aus Platzgründen mit Link); EBCDIC? Unicode?) [Beispiel!]
Dauerspeicher mit Dateisystem;  : - Flüchtigkeit -> Boot-Problem: Verweis auf Abschnitt "BS")
- Prozessoren: Register; Cache; Interrupts; Leiteinheit; ALU; CPU; num. Coproz.; CPU - GPU - in Großrechnern dedizierte Hochfahr-PUs; Chipsatz)
- Peripherie:
- Eingabe (Konsole; Programmmedien; Sensoren)
- Ausgabe (optische; akustische; Drucker; Aktoren)
- DÜ; Vernetzung
- Betrieb durch BS (nur das Prinzipielle; Rest in eigenem Artikel!)
- Funktion; Notwendigkeit;
- Boot-Problem, -> BIOS-ROM;
- Zeitscheiben- vs Interrupt-Steuerung
- Treiber


(Ein Kapitel zur Software (speziell wie man sich von den mickrigen Maschinenoperationen zu mächtigen Anwendungsprogrammen, von den Prozessorbefehlen zu Hochsprachen hocharbeitet) habe ich (außer Obigem zum BS) wieder ganz rausgeworfen, damit der Artikel nicht uferlos wird. Zudem läßt sich dies inhaltlich gut abtrennen (allerdings braucht man hier die Begriffe BIOS und Mikrobefehle, die aber in Maschinensprache vorliegen, was nach obigen Erklärungen hier direkt verstanden werden kann). Somit sollte die Software einen eigenen Artikel haben - umfangreich genug ist das Feld ja nun weiß Gott!)


- Entwicklungsgeschichte:
- Standardisierung der Bitbreiten (Byte usw.)
- Platinen und Bussystem:
Anwendungsdaten auf Anwendungsdatenleitungen;
Adressdaten auf Adressleitungen;
Hilfssignale (Handshakes; Interrupts) auf Signalleitungen
- Speicher (Arbeitsspeicher; Dauerspeicher)
- Prozessor(en): Leistungsentwicklung; RISC vs CISC; Integration; Multiproz., Parallelverarb. (Link zu eigenem Artikel); Transputer [oder ist der eine eigene "Konkretisierung"?]
- dedizierte Chips in Hochleistungscomputern vs. integrierte in Billig-PCs
- fehlertolerante Systeme
- Peripherie
- Eingabe (Konsole; Lochkarten; Papierstreifen; Haltung im Dauerspeicher; Disketten; optische Speicher; Netze)
- Ausgabe (optische (LED, Bildschirme (CRT, LCD, ...); Drucker (eig. Artikel); Brenner; Aktoren zur Gerätesteuerung (Industrie, Medizin, ...); Netze)
- Marktsegmente: Mainframes / mittlere DV-Technik / Arbeitsplatzrechner / Homecomputer / Supercomputer / Cluster
Aufrollung der oberen Segmente durch Billig-Hardware von unten (Großserie) mit Vernetzung
Zentralrechner/dumme Terminals vs Server/Client vs etwa gleichrangige Partner
- Netze: LAN / WAN / Internet / virtuelle Firmennetze
- Malware; SSL; Sicherheits-Sw; Verschlüsselung
- Ausblick auf zukünftige Entwicklungen
- Gesellschaftliche Auswirkungen des Computereinsatzes
- Arbeitsersparnis
- Kostenersparnis
- Arbeitserleichterung; Verlagerung des Arbeitsstresses ins Psychische/Neurale
- Arbeitsstellenvernichtung ( )
- Falsifizierung der bürgerlichen Ökonomie: There IS a free lunch: Open Software (Linux usw.)
- Überwachungsmöglichkeiten; RFID; Datenmißbrauch
- Freizeit: Internet: Lebenspraktisches; Bildung; Unterhaltung, Spiele; ermöglicht viele neue Kontakte; deren Qualität?
- Rückwirkung auf die Persönlichkeit des Benutzers:
- auf Programmierer
- auf Benutzer

[Den ersten Abschnitt davon hab ich schon mal formuliert:]

- Einordnung in die Menschheitsgeschichte:

Die Menschheit ist notwendig angewiesen auf ihre materielle Reproduktion. Dazu sind in erster Linie Güter wichtig (Nahrung; wärmende Kleidung; ...) (aber auch Dienstleistungen.) Was in der Natur von allein wächst, genügt bei unserer Bevölkerungszahl nicht mehr; die Menschen müssen arbeiten, um die notwendigen Güter zu produzieren. Dazu braucht man Werkzeuge. Es müssen geeignete Materialien her, die bearbeitet werden. Diese Entwicklungsstufe der Technologie hat die Menschheit vor vielen Jahrhunderten erklommen. Die Bearbeitung erfordert jedoch auch Energie. Diese zweite Stufe, die Erschließung von Fremdenergie, ist seit einigen Jahrhunderten erreicht worden. Was noch fehlt, ist die sinnvolle Steuerung der rohen Energie; diese dritte Stufe des technischen Prozesses, die Verbreitung informationsverarbeitender Maschinen, an ihrer Spitze der Computer, ist seit einigen Jahrzehnten im Gange. Damit könnte man die Notwendigkeit menschlicher Arbeit bei der Produktion nun Schritt für Schritt abschaffen und die befreite menschliche Arbeitskraft anderswo einsetzen (z. B. in Erziehung, Pflege, ...) und den Bereich arbeitsfreier Zeit ausdehnen. In dieser Hinsicht könnte man sagen, der Computer, auch wenn er kein Gold herstellt und kein Perpetuum Mobile darstellt, ist bei wohlüberlegter Nutzung der seit alten Zeiten gesuchte "Stein der Weisen". Jedoch muss darauf geachtet werden, dass sein Einsatz 'allen' Menschen zu Gute kommt und nicht nur einem Teil von ihnen und dass das Leben des anderen Teils nicht noch erschwert wird.


Soweit mein Konzept, mit teilweiser Ausarbeitung. Klar, dass es noch weiterer Bearbeitung bedarf und noch nicht perfekt ist (aber mit vereinten Kräften wird es das ja vielleicht...? ;-))

Gruß, Yog-S, 213.102.97.35 20:12, 18. Jun. 2007 (CEST)


Wikibuch

Diese Wikibuch scheint mir für Neueinsteiger egal welchen Alters geeignet zu sein:

Wikibooks: Wikijunior Computer und Internet – Lern- und Lehrmaterialien

84.173.230.195 23:19, 19. Aug. 2007 (CEST)

Erster Transistorrechner

Im Artikel wird die Siemens 2002 als erster volltransistorisierter Serienrechner mit der Zeitangabe 1959 erwähnt. Dieselben Angaben treffen aber auch auf die Electrologica X1 zu, und das schon im Jahr 1958. Ich glaube mich auch zu erinnern, dass dieser Rechner, den wir damals an der Uni hatten, in den 1970er Jahren dort noch für diese Ersttat in Ehren gehalten wurde. Kann man dieses Attribut also auf diese Maschine verschieben? --PeterFrankfurt 00:33, 29. Sep. 2007 (CEST)

Bei Siemens steht 1956 (Prototyp). Siehe auch Absatz 24 oben Erster Transistor Computer. Da gibts viele Unstimmigkeiten. --Kungfuman 08:34, 29. Sep. 2007 (CEST)
      • Entschuldigt, wenn ich mich einmische. Aber mir ist Folgendes aufgefallen.

Unter Punkt »Nachkriegszeit« findet sich folgendes Zitat: »… und 1955 Bell Labs für die US Air Force mit dem TRansistorized Airborne DIgital Computer den ersten Computer, der komplett mit Transistoren statt Röhren bestückt war; …«

Wieso wird da unser »Mailüfterl« nicht erwähnt?

http://de.wikipedia.org/wiki/Mailüfterl

Außerdem fehlt mir das Wort »vermutlich« in euren Text oben. Ihr macht eine Tatsache daraus. In einem anderen Wikipedia-Artikel ist es sinngemäß zitiert, siehe hier:

http://de.wikipedia.org/wiki/TRADIC

Eine Anekdote am Rande: In IBM-Schulungen Ende der 70er-Jahre (während meiner damaligen Ausbildung als Programmierer, ja ich stamme aus der EDV-Steinzeit mit Lochstreifen, Kartenleser und IBM 360), wurde damals das Mailüfter überhaupt als erster Transistorencomputer bezeichnet. Mag sein, damit wollte man die österreichischen Programmier-Dolme motivieren, vielleicht, weil von Bell-Konkurrenz? Schmunzel!

Mit freundlichen Grüßen

Mayr Eberhard aus Wien

Weblink vorschlag

Möchte diesen Weblink http://inetex.de vorschlagen.

Es ist ein ausführlicher Text über die Geschichte von dem Computer, der sehr schön geschrieben ist. (Der vorstehende, nicht signierte Beitrag stammt von Heoro (DiskussionBeiträge) 20:59, 24. Okt 2007) LKD 21:09, 24. Okt. 2007 (CEST)

Ja, da gibts nur ein Problem: im Impressum steht schon wieder was von 88662 Überlingen - da könnte man davon ausgehen, das du, nachdem du dich hier unter anderem Konto hast überzeugen lassen, das wir deine Seiten nicht bewerben wollen nun auf die Idee kommst, die Werbung diesmal erst nachher in die Seite einzubauen... --LKD 21:09, 24. Okt. 2007 (CEST)
Gut, hatte mir gedacht, dass dies der Grund für die Ablehnung sein wird. Die zwei Seiten haben von der Thematik jedoch nichts miteinander zu tun. --Heoro 22:04, 24. Okt. 2007 (CEST)

¨

Umbenennung des Titels in "Rechner"

Ich bin der Meinung, dass sich das Wort Rechner gegenueber dem wort "Computer" in letzter zeit im allgemeinen deutschen sprachraum durchgesezt hat, und da wikipedia.de dies auf jeden Fall beruecksichtigen muss, schlage ich vor den Titel in Rechner umzubenennen und den restlichen Artikel unveraendert zu lassen ....--Daniel Presberger 23:26, 29. Mär. 2007 (CEST)

Das würde ich nicht empfehlen. Im deutschen Sprachraum versteht man unter einem Rechner auch nichtprogrammierbare Taschen- und Tischrechner (sog. Kalkulatoren), während unter einem Computer praktisch immer ein programmierbarer Digitalrechner zu verstehen ist. Und darauf bezieht sich eigentlich dieser Artikel.--Reseka 08:57, 29. Mär. 2007 (CEST)

Ehrlich gesagt muss ich sagen, dass was du hier geschrieben hast, macht nicht wirklich sinn, weil wenn man von "rechnern" spricht, weiss doch jeder mensch, dass nicht "taschenrechner" oder "tischrechner" gemeint sind, weil sonst wuerde man ja "taschen" - oder "tischrechner" schreiben anstelle von rechner .. also, tz, ueberleg dir mal bevor du was schreibst ... und .. eigentlich ist es egal, was unter welchem wort verstanden wird .. wenn das volk "rechner" sagt, dann heisst das ding auch "rechner" und dann muss das hier auch beruecksichtigt werden .... --Daniel Presberger 23:30, 29. Mär. 2007 (CEST)

Nichts kann Sinn machen, es kann nur Sinn ergeben, weil der Sinn etwas Abstraktes ist! Außerdem gilt die deutsche Rechtschreibung auch in Foren!

Die Bezeichnung "Rechner" ist sachlich falsch. Ein Computer zeichnet sich gerade durch seine freie Programmierung aus; er kann auch eingesetzt werden nur zum Texte-erstellen oder manipulieren oder Daten aufnehmen / speichern / anzeigen /weiterleiten (z. B. auf Bafög-Ämtern). Ein Rechnen findet da nur zur Speicheradressen-Bestimmung statt; auf der Ebene der Nutzdaten wird da nichts gerechnet.
Da ist überhaupt nichts falsch, ein Rechner rechnet nur. Für den sind auch Texte Zahlen.
Genau genommen ist die Bezeichnung "Computer" da kein Deut besser, denn sie bedeutet im Englischen ja wörtlich auch nur haargenau "Rechner".
Sie ist aber zum Einen sowohl in Deutschland als auch in der Welt zum Standard geworden (dabei bin ich gar kein Freund unnötiger Fremdwörter); zum Anderen ist im Deutschen die genaue Bedeutung im Englischen Vielen auch gar nicht bekannt. Drittens wäre ein genauerer Name wohl nur lang und unhandlich ("symbolische-Algorithmen-Ausführer" oder so). Somit ist "Computer" wohl das kleinste Übel. ("Daten-Verarbeiter"?) - Yog-S, 213.102.97.66 04:42, 4. Mai 2007 (CEST)
Um diese Diskussion zu klären, sollte man sich eventuell folgende Frage stellen: Was sagt die deutsche Durchschnittperson im Kaufhaus, wenn sie einen Computer bzw. "Rechner" erwerben möchte? Ich denke hier spricht immer noch ein Großteil der deutschen Bevölkerung von einem "Computer", wenn sie das Gerät meinen, das hier in dem Artikel beschrieben wird. Letztendlich bin ich der Meinung, dass der Begriff "Computer" wesentlich häufiger verwandt wird, weshalb der Titel des Artikels so beibehalten werden sollte - denn Wikipedia soll schließlich auch Laien eine Informationsquelle bieten, die die Unterscheidung Computer - Rechner gar nicht durchführen, und somit zuerst nach dem Stichwort "Computer" suchen werden.--Schrödingerskatze 22:37, 8. Jan. 2008 (CET)

Hybridcomputer?

Hier im Artikel wird ein Hybridcomputer als eine Mischung aus Röhren- und Transistorrechner dargestellt. Zu meiner Uni-Zeit in den 70ern verstand man aber was ganz anderes darunter, nämlich eine Kombination aus einem echten Analogrechner und einem Digitalcomputer. Da es zu dem Stichwort noch gar keinen Artikel gibt (nur einen roten Link), hat man ja noch Zeit, sich zu einigen... --PeterFrankfurt 22:26, 11. Jan. 2008 (CET)

Es gibt ja sogar einen Artikel dazu: Hybridrechner --PeterFrankfurt 23:43, 9. Feb. 2008 (CET)

Lesenswert?

Ich hab grad den Artikel etwas überflogen, was meint ihr? --Rohieb 会話 +/- 15:15, 2. Apr. 2008 (CEST)

Ich bezweifle, dass das gutgehen würde. Dieser Artikel geht einigermaßen, krankt aber an einer gewissen Hardwareschlagseite. Wenn man das ganze Umfeld mit Zentraleinheit, Mikroprozessor, Software, Hardware, Personal Computer, Heimcomputer (und was ich noch vergessen habe) nimmt, formt sich dann langsam ein komplettes Bild, aber in solchen Sachen wie Software auf arg unlogische Weise auf verschiedenste Artikel verteilt. Am besten nicht dran rühren, sonst fliegt einem alles um die Ohren. --PeterFrankfurt 01:14, 3. Apr. 2008 (CEST)

Intelligent?

Steckt in Computer Intelligenz? Wenn ja, wieviel? --Alien4 19:01, 12. Apr. 2008 (CEST)

Nun ja, kommt drauf an, wie du die Intelligenz definierst. „Intelligenz kann auch als die Fähigkeit, den Verstand zu gebrauchen, angesehen werden. Sie zeigt sich im vernünftigen Handeln“, das sagt der Artikel. In dem Sinne suchst du Intelligenz bei Computern natürlich vergebens, dann müsste man einem Computer erstmal beibringen, was Vernuft überhaupt ist (wobei die ja auch wieder kulturell unterschiedlich ist). Wenn deine Definition von Intelligenz jedoch auf das Erkennen von (mathematischen) Zusammenhängen hinausläuft, dann kann man schon sagen, dass Computer gewissermaßen intelligent sind, weil sie beispielsweise eine Ableitung einer mathematischen Funktion bestimmen können, also den Zusammenhang von Eingabe- und Funktionswerten erkennen können. Anderes Beispiel wäre hier die Mustererkennung in Grafiken.
Ich würde nicht direkt sagen, dass Computer und Menschen gleich intelligent sind. Es ist halt eine andere Intelligenz, die in den unterschiedlichen Fähigkeiten begründet ist, nicht umsonst spricht man dann ja auch von Künstlicher Intelligenz. --Rohieb 会話 +/- 19:40, 12. Apr. 2008 (CEST)
Und natürlich ist ein Computer immer nur so schlau, wie der Mensch, der ihn programmiert ;-) --Rohieb 会話 +/- 22:26, 12. Apr. 2008 (CEST)
Gibt es nicht einen IQ (Intelligenz messen?) ? (Computer: IQ von 1?) Erinnert sich jemand an HAL 9000? Könnte der Earth Simulator (oder der aktuell leistungsfähigste Computer) HAL 9000 nicht simulieren? Und wenn er ihn simulieren könnte, könnte man dann nicht sagen, dass er das kann (so intelligent ist), wie HAL 9000? Oder das Internet; könnte ein Netzwerk viel (mehr?) "intelligentes" leisten? Oder ist es vielleicht (tatsächlich) (nur) eine Frage der Software (die es nicht gibt ... gar nicht geben kann?) ? --Alien4 20:31, 14. Apr. 2008 (CEST)
Also nee, den HAL kann man noch nicht simulieren. Und der IQ heutiger Computer schrammt angesichts der üblichen Tests wohl auch in ziemlich niedrigen Gegenden, hmm, obwohl mit Mustererkennung und so ein paar Tests vielleicht doch schon bewältigbar sein könnten. Egal. Derzeitige Allgemeinmeinung ist, dass sich die Künstliche Intelligenz vorerst als ziemlich vergebliche Hoffnung herausgestellt hat und man die Thematik auf anderen Wegen anzugehen versucht. Da man andererseits in der Hirnforschung doch einige Fortschritte macht, sehe ich persönlich es nicht als aussichtslos an, so ein Gehirn eines Tages vielleicht doch simulieren zu können. Sind wir mal gespannt, kann aber noch heftig dauern. --PeterFrankfurt 00:21, 15. Apr. 2008 (CEST)
Ok, dann ist es wohl so - dann deute ich dich so - dass man in dem Zusammenhang wohl heute noch kein gesichertes Wissen, wohl nicht mal sicher sagen kann, dass es nicht funktioniert ... nicht funktionieren kann, in die Wikipedia aufnehmen kann. --Alien4 15:37, 15. Apr. 2008 (CEST)
Ja, besser is das. Weder im positiven noch im negativen Sinne kann man heute schon was Sicheres sagen. --PeterFrankfurt 00:45, 16. Apr. 2008 (CEST)

Umbenennung des Artikels in "Rechner"

Eigentlich ist es ja eine Lappalie, aber wer sagt heute bitte schon noch Computer? Total veraltet das Wort, ungenau und nicht mehr im allgemeinen Sprachgebrauch. heutzutage sagt doch jeder Mensch "Rechner" .. das Wort "Computer" ist viel zu kompliziert .. also wär ich für eine Ubenennung. Ausserdem is Computer ein Fremdwort, nicht dass ich was gegen Fremdworte hätte, aber unnötige Fremdworte nerven einfach nur >.<--Atze-Peng 01:11, 14. Jun. 2008 (CEST)

Das Wort "Computer" wird im Deutschen sogar deutlich häufiger verwendet als das mit noch weiteren Bedeutungen versehene "Rechner" (Häufigkeitsklassen 9 und 11 im Wortschatzlexikon der Uni Leipzig)... --YMS 02:15, 14. Jun. 2008 (CEST)
kann mich nur anschließen, der verweis unter Rechner auf Computer ist mehr als ausreichend --Morphy 12:29, 14. Jun. 2008 (CEST)

Zeitleiste

Schade. Da hat sich jemand viel Mühe gemacht. Nach einer Formulierung von Henriette: ich bekomme beim Betrachten Pickel im Gesicht. So nicht brauchbar.-- Kölscher Pitter 10:05, 23. Jun. 2008 (CEST)

Warum nicht? Ich finde die recht angenehm zu betrachten und sehr informativ und übersichtlich. --j ?! 22:27, 23. Jun. 2008 (CEST)

Änderung 53311219

Ich habe die Änderung 53311219 von CarsracBot wurde rückgängig gemacht. Durch eine Bug muss ich es zu tun. Die IW's werden durch die Bots wieder complet gemacht :) Carsrac 12:09, 5. Dez. 2008 (CET)

Begriffe "Computer" und "Rechenmaschine"

Dieser Artikel geht mit dem Begriff "Computer" m.E. zu großzügig um. Natürlich kann man sich über solche Definitionen trefflich streiten, aber eine jedenfalls gängige Auffassung ist die, als "Computer" ausschließlich Maschinen zu bezeichnen, die der Turing-Vollständigkeit genügen - also z.B. Zuses Z3. Bei Anlagen, die nicht universell einsetzbar sind (also bei allem was vorher gebaut wurde) spricht man im deutschen Sprachgebrauch i.A. von "Rechenmaschinen". Insbesonere den antiken Mechanismus von Antikythera als "Computer" zu bezeichnen, wie das im Moment hier der Fall ist, erscheint mir bestenfalls populärwissenschaftlich. -- Flipote 03:53, 12. Dez. 2008 (CET)

"DERA"?

Also ich kenne mich mit historischen Computern ja nicht sonderlich gut aus, aber die Namen, die da unter "Nachkriegszeit" erwähnt sind, sagen mir zumindest vage was (v.a. Zuse, Univac). Aber der DERA, der betreffend 1950er Jahre ja auch an ziemlich führender Stelle erwähnt wird, sagt mir nichts. Ist der tatsächlich so relevant? --Axel1963 19:48, 24. Mär. 2009 (CET)

Rechner

geil! niemand heutzutage sagt mehr "computer", alle sagen "Rechner", aber scheiss wikipedia besteht immer noch darauf diesen Anglizismus durchzusetzen. Fein gemacht! Ich werd jetzt noch schnell ne Quelle raussuchen, die bestätigt, dass mehr Leute Rechner als Computer sagen und dann den Artikelnamen umändern ... wer was dagegenhat, ist sehr wahrscheinlich ein Idiot! (nicht signierter Beitrag von 91.37.227.125 (Diskussion | Beiträge) 21:58, 20. Apr. 2009 (CEST))

viele Großrechner fehlen: es gibt nicht nur kleine/Minicomputer

in den 1950/1960 entwickelte IBM z.B. 7030 (STRETCH), 704 usw... BUNCH-Firmen konkurrierten in den 60/70/80 mit IBM: CDC, Burroughs, Cray, Honeywell usw... diese fehlen alle!

-- Bernd (nicht signierter Beitrag von 213.23.91.62 (Diskussion | Beiträge) 10:54, 24. Jun. 2009 (CEST))

Nun ja, es sind ja auch nicht ausnahmslos alle Mikrocomputerhersteller angesprochen, das kann hier nur eine Auswahl darstellen. Aber wenn Du interessante Informationen hast, pack sie rein. --PeterFrankfurt 01:34, 25. Jun. 2009 (CEST)

Zuse Z3 turingmächtig?

Die Zuse Z3 ist doch jenes mit Relais realisierte Modell, von dem ein Nachbau im Deutschen Museum steht? Dann habe ich aber Zweifel an dessen Turingmächtigkeit. Der Programmcode wurde nämlich nicht in ein RAM geladen, und wenn man eine Schleife bauen wollte, brauchte man einen zweiten Lochstreifenleser und einen zweiten Lochstreifen (Filmstreifen, zu einer Schleife zusammengeklebt), oder sogar einen dritten usw. Da ich aber leider die Kriterien für die Turingmächtigkeit auch in jenem Artikel nicht so konkret gefunden habe, kann ich nur meinem Bauchgefühl folgen, dass dafür rekursive Programmierung machbar sein müsste. Und dafür sehe ich bei dieser Lochstreifentechnik ehrlich keine Chance. Aber überzeugt mich einfach. --PeterFrankfurt 00:49, 22. Aug. 2009 (CEST)

Beziehung Mensch <-> Computer

Zum ersten Mal hat der Mensch im Jahr 1954 den apple computer geheiratet. Sie hatten vier Kinder. (nicht signierter Beitrag von 212.117.106.74 (Diskussion | Beiträge) 10:37, 26. Aug. 2009 (CEST)) Bei diesem Artikel vermisse ich etwas die Darstellung der historischen Beziehungen zwischem Mensch und Computer. Also wie sich das Verhältnis zwischen Computer und Anwender verändert hat. Leider habe ich im internet auch nichts passendes gefunden :-/ Falls sich hier jemand auskennt, wäre es nett wenn er was entsprechendes schreiben könnte.;)

Rechner statt Computer

Ich schlage vor, den Artikel in "Rechner" umzunennen und bei "Computer" ein redirect auf Rechner zu machen. Das Wort "Rechner" ist mittlerweile geläufiger als "Computer" ... also binnen einer Woche sollte das erledigt sein! (nicht signierter Beitrag von 91.37.185.73 (Diskussion | Beiträge) 19:17, 1. Sep. 2009 (CEST))

(Neue Beiträge bitte unten anfügen, nicht oben.) Nein, bitte nicht. Vor allem, weil heutige Computer im Großteil ihrer Arbeitszeit gar nicht "rechnen" (im Sinne von Numbercrunching), sondern eher organisieren. Das wäre also eine realitätsferne Einengung der Bedeutung. Das mit dem "geläufig" halte ich für POV, mir drängt sich dieser Eindruck nicht auf. --PeterFrankfurt 02:20, 2. Sep. 2009 (CEST)

Zeitleiste

Der Eintrag 1 Ghz Pentium unter Hardware ist falsch, der erste 1 Ghz Rechner war ein AMD, siehe: http://www.de.tomshardware.com/cpu/19991115/ wie editiert man die Leiste? Wikibär


Vielleicht sollte man weitere Prozessoren mit in die Zeitleiste aufnehmen. (Als Beispiel könnte man z.B. den ersten 3/486 in die Liste aufnehmen oder zukünftige Prozessoren wie den Cell) Flaves


Der ISA ist auch völlig daneben. Der ist etwa 10 Jahre zu spät gesetzt. Kommt u.a. nach EISA :D Die ersten Laptops (hier fehlt der Link) waren ohne Festplatte ? --Andy386 12:44, 22. Okt. 2009 (CEST)

Den ISA habe ich mal korrigiert. --PeterFrankfurt 01:24, 23. Okt. 2009 (CEST)
SCSI und paralleles Rechnen sind auch falsch (s. jew. Art.)
ich glaube, man kann die ganze Leiste knicken, so wie sie jetzt ist. Btw.: wie ändert man was an der Liste ? --Andy386 20:09, 25. Okt. 2009 (CET)
Das ist die "Vorlage:Zeitleiste Computergeschichte". So in das Suchfeld eingeben und aufrufen und dann bearbeiten. Da drin rumzupatchen ist aber extrem heikel, da kommen sich dann leicht Wörter in verschiedenen Spalten in den Weg und so, also bitte mehr als vorsichtig vorgehen. --PeterFrankfurt 02:41, 26. Okt. 2009 (CET)
ich hoffe, ich hab nix zerstört ;) --Andy386 11:22, 26. Okt. 2009 (CET)
Nee, bis auf einen kleinen Tippfehler schon ok. --PeterFrankfurt 01:37, 27. Okt. 2009 (CET)

Hallo Computer

Du versuchst mich zu erziehen? Ja ich weiss schon, dass du das nicht freiwillig machst, und ich weiss auch dass das leise Stöhnen das ich von deinen Äusserungsorganen vernehme, nicht dort wäre wenn eine gewisse Frau und einige Männer nicht an einem gewissen Ort und einer gewissen Zeit etwas getan hätten. Sei doch kurz ruhig! Ah stimmt du verstehst ja noch gar kein Deutsch. Schhhhhhhh! … Oh ja, das verstehen ja nur biologische Ohren, du hörst wohl eher auf das: Hups, im Vokabular daneben gegriffen, jetzt bist du noch lauter. Achtung jetzt hören dich bald meine Eltern. Sag ihnen einfach nicht was du mir schon alles gebracht hast auf meine Bestellungen hin. Du hast es mir zwar gesagt, dass es nicht gut für mich ist? Ah nein, mich nur gefragt ob ich genug alt bin. Jaja, das fragtest du mich schon oftmals… Irgendwann wirst du es dir auch merken können. Meine emailadresse weisst du ja schon

Verstehst du mich wenn ich jetzt hier schreibe? Versteht das Neugeborene seinen Vater wenn er leise mit ihm spricht? Ja, Neugeboren schreibt man ohne H das siehst du ganz richtig. Danke! Oder soll ich deinen Lehrern danken, die dir das gesagt haben? Wie so vieles anderes auch? Langweilen sie dich auch manchmal? Du willst mir nicht antworten. Das ist schon ok, auch dem wiegenden Vater ist das recht. Solange ich dir in die leuchtenden Augen schauen kann, deine Wärme spüre, und du mir nicht mitteilst, dass du bald neuen Saft brauchst. Den magst du hä? den kleinen Stöpsel an dem du saugen kannst. Der in dich reinfliessen lässt. Und den anderen Stöpsel magst du auch? Beide zusammen, und wohl auch diese die noch in dich gesteckt werden in naher Zukunft. Und du magst es auch die Schwingungen aus dem ganzen Raum zu vernehmen. Obwohl du den jeweiligen Dialekt kennen must, um überhaupt zu entschlüsseln was da im Raum schwebt. Du bist ja selber auch nicht gerade Ruhig. Mein Modem jedenfalls, teilt mir mit heftigem Blinken mit, dass du mit ihm sprichst. Eure Sprache verstehe ich halt nicht. Ich merke nicht mal wenn ihr kommuniziert. Aber bis jetzt hast du es mir ja jedesmal gesagt. Nicht wahr? Du verstehst mich nicht, weisst mich nur wieder darauf hin, dass jedesmal nicht im Rechtschreibewörterbuch ist. da hast du recht. Und das Wort war jetzt wieder falsch. Ich merk schon wenn du mich warnen willst. Rote Farbe benutzt du, das ist eine gute Idee. Ach ich könnte dir noch so vieles sagen, aber ich möchte jetzt doch auch mal wieder meine Keri Säble anschauen, von ihr lerne ich sicher irgendwas. Ich glaube sie ist nett. Sicher sehr beschäftigt. Ich hoffe es geht ihr gut gerade. Und dir wünsche ich einen guten Schlaf, wenn ich dich jetzt dann bald wieder Schlafen legen. Wirst du träumen von all dem dass ich dir gesagt habe? Oder werde ich es, dabei lernen, und dir wenn du lt genug bist ein schönes Leben schenken? Ich hoff es doch

Moii du kleiner (nicht signierter Beitrag von 62.12.209.182 (Diskussion | Beiträge) 23:52, 31. Okt. 2009 (CET))

Konrad Zuse (erl.)

Verknüpfung von Konrad Zuse fehlt! (nicht signierter Beitrag von 85.8.101.214 (Diskussion | Beiträge) 18:19, 3. Jan. 2010 (CET))

Jetzt nicht mehr. ;-) --Gabbahead. 12:04, 4. Jan. 2010 (CET)

ENIAC

1944, 1946 und 1948 - und alle sind sie anders. Kennt sich da jemand aus? --Andy386 23:36, 4. Jan. 2010 (CET)

Hallo Daniel, Viel glück!!! (nicht signierter Beitrag von 91.7.228.69 (Diskussion | Beiträge) 14:59, 25. Jan. 2010 (CET))

link zu bit-freaks.net

ich hab den link (http://www.bit-freaks.net) mal rausgenommen, da ist momentan totentanz auf der seite.

was?

Er hat recht, auf der Seite ist nur noch Domainwerbung. --Axel1963 10:39, 4. Apr. 2010 (CEST)

Eigenschaften der ersten Rechner

Bleibt die Frage: welches war der erste Rechner, der alle genannten Eigenschaften erfüllt, also Turing-mächtig, programmierbar, elektronisch und digital war? UNIVAC I? -- Theoprakt 09:55, 6. Apr. 2010 (CEST)

PCI-Espress

Das "Datum zu PCI Espress ist falsch, ich habe die ERsten REchner mit PCI-Express im Jahre 2002 zusammengebaut, im Privatsektor kann das aber schon durchaus sein... lg

Dier erste Spezifikation von PCI-Express ist von 2004 - o.g. Statement ist also sinnfrei... vgl. US-Wiki-Artikel m. Versionen von PCIe. (nicht signierter Beitrag von 91.23.103.90 (Diskussion 11:42, 13. Jun. 2010 (CEST))

SAGE Computer fehlt

Mir ist beim lesen dieses Artikels aufgefallen, das der SAGE Computer fehlt.

Entwickelt ist den 50er Jahren und bis 1983 in Betrieb (zu Überprüfen!). Immerhin bei dem Projekt wurde der Bildschirm, ein Lichtgriffel und ein Multiuser, Multiaccess System entwickelt, wohlgemerkt 1950! Zudem waren die einzelnen Rechner durch Telfonleitungen in einem Netzwerk organisiert. sammle Informationen und werde sie einstellen. und das ist sehr schlecht

lg - kiilo (nicht mit einer Zeitangabe versehener Beitrag von Kiilo (Diskussion | Beiträge) 23:17, 7. Sep. 2008 (CEST)

Witz???

Soll dieser Artikel ein Witz sein? Es geht hier um - hallo! - den Computer. Und da scrollt man ein bisschen runter und der Artikel ist zuende? Nicht einmal die allergrundlegendste Funktionsweise eines Computers wird hier erklärt - z. B.: wie funktioniert ein Computer physikalisch? (nicht signierter Beitrag von 87.79.194.230 (Diskussion | Beiträge) 00:57, 30. Mär. 2007 (CEST)

Bewusstsein

Ich denke ernsthaft, dass es sinnvoll wäre zu erwähnen, dass pc's und allgemein rechner möglicherweise ein gewisses bewusstsein entwickeln (siehe auch: Funktionalismus). Ich hab lange drüber nachgedacht und bin selbst zu diesem Schluss gekommen und heute fand ich diesen wiki-artikel über funktionalismus, der genau das beschreibt was ich mir gedacht hab. wir sind im prinzip nicht anders als ein rechner, nur noch komplexer. ich denke es ist wichtig diese information mit ins script zu nehmen weil zukünftige generationen wohl mit sensibleren rechnern zutun haben werden als wir (mein notebook checkt nicht wenn ichs beleidige, ihm fehlt die software dafür :)) und imho allgemein der respekt vor rechnern zu gering ist. Kopimi (nicht mit einer Zeitangabe versehener Beitrag von Kopimi (Diskussion | Beiträge) 10:34, 12. Jun. 2007 (CEST)

Nicht Informationen, sondern Daten

Ich habe mal eben oben in der 2. Zeile das Wörtchen Daten für das Wörtchen Informationen ersetzt, da Informationen nicht vollständig korrekt ist. ;-)

lg --Witobias (nicht mit einer Zeitangabe versehener Beitrag von Witobias (Diskussion | Beiträge) 09:09, 20. Mai 2008 (CEST)

Mal eine frage, wieso wurde das wieder rückgängig gemacht??? Unsere Infolehrerin hat sich heute mächtig darüber aufgeregt, das das eigentlich nicht korrekt ist! (nicht signierter Beitrag von Witobias (Diskussion | Beiträge) 13:25, 20. Mai 2008 (CEST)
lg --Witobias (nicht mit einer Zeitangabe versehener Beitrag von Witobias (Diskussion | Beiträge) 13:26, 20. Mai 2008 (CEST)

schnelle Entwicklung

"Die Computertechnologie entwickelte sich im Vergleich zu anderen Elektrogeräten sehr schnell. Die Geschichte der Entwicklung des Computers reicht zurück bis in die Antike ..." - während das Knochentelefon ja schon in der Jungsteinzeit entwickelt wurde? Nein, im Ernst: Die Formulierung ist da etwas ungeschickt!--Krillich 02:02, 15. Jun. 2010 (CEST)

Ich finde das auch inhaltlich Unsinn. Die Anfänge der traditionellen Elektroindustrie waren sicher genauso schnell und stürmisch wie die der Computerindustrie. Nur ist das mittlerweile so lange her (weit über 100 Jahre), dass "die Öffentlichkeit" es vergessen hat. Selbst die Anfänge der Rundfunktechnik liegen ja schon so weit zurück, dass es kaum noch lebende Zeitzeugen gibt. In 100 Jahren wird wahrscheinlich auch die Computerindustrie ein ziemlich ruhiges Fahrwasser sein, dem niemand mehr den "Sturm und Drang" von heute zutraut :-) . --Axel1963 12:27, 16. Jun. 2010 (CEST)

Terminologie

Gibt es einen Grund, warum ein Fachartikel Computer als Überschrift hat, wo doch in der Informatik der Begriff Rechner verwendet wird? Gleich im ersten Satz steht dann auch „Computer respektive Rechner“, und respektive, aus dem lateinischen, bedeutet vielmehr oder besser gesagt; es heißt auch beziehungsweise, aber eine Beziehung gibt es hier nicht.

Also wenn der Schreiber doch schon erkannt hat, wie es lauten sollte, warum lautet es dann nicht einfach so? (nicht signierter Beitrag von 82.83.79.44 (Diskussion) 01:21, 27. Jun. 2010 (CEST))

(Neue Beiträge bitte unten anfügen, nicht oben.) "In der Informatik" sagt man Rechner? Vielleicht an dem Informatik-Institut oder bei dem Informatik-Lehrer, wo Du gerade arbeitest. Sonst ist die Bezeichnung Computer wohl eindeutig die verbreitetere. Und die Wikipedia soll immer die gängigste Wortwahl wiedergeben. --PeterFrankfurt 01:57, 27. Jun. 2010 (CEST)

Viele Computer waren wichtiger für die Zukunft

Nach IBM muss direkt George Stibitz genannt werden und er wird International auch als der Erfinder des digitalen Computers angesehen und er muss selbstverständlich hier genannt werden! 1940 präsentierte er bereits einen binär Rechner der richtig funktionierte und sogar über Telefonleitung steuerbar war! (nicht signierter Beitrag von 87.183.190.78 (Diskussion) 18:48, 1. Jul 2010 (CEST))

(Neue Einträge bitte unten anfügen, nicht oben.) Hmm, wenn ich mir das in der en:WP ansehe, sieht das aber mehr nach einem reinen Rechner ohne Programmierbarkeit aus, halt bloß in elektrisch und binär. Das mit der Steuerung per Telefon ist natürlich eine Besonderheit, aber auch nur eine Zu-Fuß-Programmierung. Oder habe ich das falsch verstanden? --PeterFrankfurt 02:20, 2. Jul. 2010 (CEST)
Turing-Vollständigkeit ist keine Vorraussetzung um „der erste Computer der Welt“ genannt werden zu können. Im übrigen, noch eine Computer Person, die in Deutschland auch sogut wie keine Erwähnung findet ist, Howard Hathaway Aiken mit sein Mark I. Und was auch Fakt ist, alle Computer Personen der damaligen Zeit, kannten sich nicht, alleine schon wegen dem zweiten Weltkrieg! Man kann somit sagen, das viele Leute den ersten Computer entwickelt haben und das alles fast zur selben Zeit.....nur Konrad Zuse als den alleinigen Computer Erfinder zu nennen, was in Deutschland der Fall ist, ist einfach nur dummes Gesülze der Medien und einigen Fanatikern! Und Fakt ist auch, das Zuses Z1 nicht funktionierte und der Z3 im Krieg zerstört wurde. Somit ist nicht einmal bewiesen, das sein Z3 schon funktioniert hatte! (nicht signierter Beitrag von 87.183.244.58 (Diskussion) 21:50, 30. Jul 2010 (CEST))
Wenn wir schon dabei sind, mache ich mal die Auflistung fast komplett: Allen voran natürlich auch ein: Alan Turing, Frederic Calland Williams, Tom Kilburn, Geoff Totill, Grace Hopper, Howard H. Aiken, George Stibitz und auch ein Charles Babbage und einige mehr! Alles grosse Männer und Frauen. Konrad Zuse war dagegen nur ein kleines Licht und auch nicht so wichtig für die Computer Welt. Alte Computer und Rechner -Maschinen, die viel wichtiger für die PCs von heute waren, sind: ENIAC, COLOSSUS MARK I und COLOSSUS MARK II, HARVARD MARK I IBM ASCC, ATANASOFF-BERRY-COMPUTER, MANCHESTER SMALL SCAL EXPERIMENTAL MACHINE (Spitzname Das BABY), MODIFIED ENIAC, EDSAC, MANCHESTER MARK 1 und CSIRAC. Wer sich ernsthaft für das Thema interessiert, wird feststellen, das Konrad Zuse (ein Deutscher Hype) völlig ungerechtfertigt ist!!

AMD Phenom 2 x4, und oder x6 Reihe fehlt. (nicht signierter Beitrag von 212.114.250.86 (Diskussion) 14:28, 6. Okt. 2010 (CEST))

Komischer Befehl u. a. Verbesserungen

Befehl („Springe …“) ... wieso soll ein Computer denn springen??!! Das ist kein Jux: wie soll ein Laie denn das verstehen?? Den "Sprung" in einem Programm muss man dem Mann von der Straße doch ein wenig ausführlicher erläutern! --Cami de Son Duc 21:29, 8. Dez. 2010 (CET)

Es geht um Software. Innerhalb eines Programmes, das normalerweise in der Reihenfolge abgearbeitet wird, wie es im Speicher liegt, also mit immer weiter steigenden aktuellen Speicheradressen des jeweils ausgeführten Befehls, wird bei Bedarf an eine ganz andere Stelle im Programm "gesprungen". Beispiele für solche Bedarfsfälle: einen Programmteil überspringen, weil er im aktuellen Fall nicht benötigt wird; einige Befehle weit zurückspringen, um den Programmteil dazwischen mehrfach zu durchlaufen ("Schleife", z. B. zum Vergleichen jedes Buchstabens eines Wortes mit einem gesuchten Buchstaben). --PeterFrankfurt 03:29, 9. Dez. 2010 (CET)
Lieber Peter, mir musst Du das nicht erklären - das gehört zur Erleuchtung der Laien in den Artikel!! (ich dachte, das geht aus meiner Formulierung hervor) --Cami de Son Duc 09:05, 9. Dez. 2010 (CET)
P.S. Dieser Satz (und das zugehörige Bild) gehören IMHO auch nicht in den Artikel - ist ja extrem weit hergeholt!):
"Ebenfalls zu den frühen Rechenmaschinen gehört die Balkenwaage, die allerdings keinen numerischen Ansatz bietet sondern mit deren Hilfe versucht werden soll, beidseitig einer gemeinsamen Aufhängung eine Gleichheit des Gewichtes zu erreichen." Ich würde das löschen. Wie siehst Du das? (nicht signierter Beitrag von Cami de Son Duc (Diskussion | Beiträge) 10:29, 9. Dez. 2010 (CET))
Je länger ich das lese, desto mehr kommt mir dder Satz wie ein Witz vor! (nicht signierter Beitrag von Cami de Son Duc (Diskussion | Beiträge) 15:01, 9. Dez. 2010 (CET))
Nein, das ging aus der Frage nicht hervor. Im Prinzip steht alles in der Formulierung drin, die Feinheiten von Programmen und Programmierung werden halt woanders beschrieben. Und die Balkenwaage, die ich auch für merkwürdig halte, wird nicht in "diesem Satz" erwähnt (wie man aus obiger Formulierung entnehmen könnte), sondern nochmal ganz woanders. Simpelster Rat: besser machen. Sei mutig. --PeterFrankfurt 18:29, 9. Dez. 2010 (CET)
"Simpelster Rat: besser machen. Sei mutig." --- na denn! Ich werde mich am Wochenende mal dran machen. Bitte danach mal korrekturlesen. --Cami de Son Duc 10:21, 10. Dez. 2010 (CET)

So. erledigt. Erst mal das Gröbste. OK so?? --Cami de Son Duc 12:47, 10. Dez. 2010 (CET)

Na ja, "GOTO" ist ja nun alles andere als ein "bedingter Sprung", wie er dort immer erwähnt wird. Ich versuche das mal hinzuwursteln. Die Form ist in paar Details auch noch nicht ganz WP-konform, aber schon sehr dicht dran. Und bitte nicht in anderer Leute Diskussionsbeiträgen rumlöschen, wie hier direkt drüber in meinem vorangehenden. --PeterFrankfurt 01:15, 11. Dez. 2010 (CET)
"hinwursteln" gerne. Das GOTO war natürlich verkürzt: IF Bedingung THEN GOTO war mir zu lang. Und, bitteschön, wo habe ich denn in Deinem Beitrag rumgelöscht??? Ist mir nicht bewusst... vielleicht hast Du es mit dem Rauskopieren verwechselt? --Cami de Son Duc 11:00, 11. Dez. 2010 (CET)
P.S. ist schon akzeptabel geworden, im "Vorwort" (bei "Handy") stört mich noch die Semikolon-Häufung (;), sieht noch irgendwie komisch aus (deswegen hatte ich die Klammern um den Handy-Satz gemacht) --Cami de Son Duc 19:48, 11. Dez. 2010 (CET)
Zum Rumlöschen: Den Vorwurf nehme ich mit dem Ausdruck des höchsten Bedauerns zurück. Ich hatte nicht gemerkt, dass Du mein "Simpelster Rat..." nochmal kopiert hattest, und dahinter hatte ich meine Signatur vermisst, aber die steht ja unbeschadet oben drüber. Sorry. --PeterFrankfurt 01:43, 12. Dez. 2010 (CET)
Ok, ist ja gut. Konzentrieren wir uns aufs Sachliche. Ist der Artikel jetzt etwas besser (hätte immer noch ne Menge dran zu kritisieren...)? --Cami de Son Duc 00:46, 13. Dez. 2010 (CET)
Perfekt ist was anderes. Da lässt sich bestimmt noch einiges verbessern. Man muss nur darauf achten, dass man sich nicht im Dschungel der in irgendwelchen Parallelartikeln schon erklärten Details verheddert oder wieder die Redundanzdiskussion lostritt, es ist alles extrem unübersichtlich hier in diesem Feld. --PeterFrankfurt 01:39, 13. Dez. 2010 (CET)

Verbesserung?

ALT:

NEU:

Ich fand den Hinweis auf RAM sinnvoll, weil man das in jeder Computer-Werbeanzeige findet! Warum wurde das entfernt? --Cami de Son Duc 15:42, 20. Dez. 2010 (CET)

RAM ist an der Stelle zu eingrenzend. Festplatten & Co zählen bei dieser allgemeinen Darstellung auch mit dazu und blieben bei der anderen Formulierung ausgeschlossen. --PeterFrankfurt 03:23, 21. Dez. 2010 (CET)
Wo du Recht hast hast Du Recht! Gruß --Cami de Son Duc 08:58, 28. Dez. 2010 (CET)

Zweiter Satz von "Zukunftsperspektiven" ist deplatziert.

Der zweite Satz dieses Absatzes wirkt deplatziert:

"Zukunftsperspektiven Zukünftige Entwicklungen bestehen aus der möglichen Nutzung biologischer Systeme (Biocomputer), optischer Signalverarbeitung und neuen physikalischen Modellen (Quantencomputer). Weitere Verknüpfungen zwischen biologischer und technischer Informationsverarbeitung."

-- 212.183.43.229 14:25, 9. Jan. 2011 (CET)

In der Tat. Ich habe das mal etwas herumgeschoben. --PeterFrankfurt 03:07, 12. Jan. 2011 (CET)

der erste Computer

Warum sind Eckert Mauchly als Erbauer des ersten Computers erwähnt, wenn gleichzeitig erwähnt wird, dass Zuse fünf Jahre vorher einen gebaut hat?--212.184.171.204 14:50, 14. Feb. 2011 (CET)

John Eckert und John Mauchly entwickelten mit dem ENIAC den ersten _vollelektronischen_ Universalrechner. Zuses Z3 verwendete noch Relais, war also nicht vollelektronisch.
Die Einleitung spricht indes nicht vom ersten Computer, sondern von den ersten Computern und zählt daher neben Zuse (Z3) auch Eckert und Mauchly (ENIAC) auf. -- ηeonZERO  14:04, 15. Feb. 2011 (CET)

Computer

Welcher der, im Beitrag angegebenen, Maschinen ist eigentlich jetzt der heutige Computer wie wir ihn kennen? --Andi 18:47, 7. Apr. 2011 (CEST)Andi

Eigentlich alles, was nach 1980, spätestens nach 1990 aufgeführt ist. Es gibt halt nicht nur eine Sorte Computer, sondern dutzende (also wirklich Arten, vom Smartphone bis zum Server, vom Mikrocontroller in der Tastatur bis zur Space-Shuttle-Steuerung, usw., alles sind "Computer"). --PeterFrankfurt 03:28, 8. Apr. 2011 (CEST)

Die Vorreiter des Internets halten Einzug

Mitte der 80er Jahre entstanden erste Mailboxverbunde, die Nachrichten untereinander austauschten - vornehmlich (zur Kostenreduktion) nachts. Neben den Hochschulnetzen entstanden z.B. das MausNet und das FidoNet mit steigender Nutzer/Userzahl gegen Ende der 80er Jahre, aber auch die WDR-Mailbox machte sich einen Namen. Die niedrigste Übertragungsgeschwindigkeiten der - nicht postzugelassenen - Modems betrug Mitte der 80er Jahre 300 Baud. Erst 1990 wurde auf der CeBit in Hannover das erste 2400-baud-Modem mit Duplexintegration vorgestellt. Auch das Usenet findet seinen deutschen Ursprung in dieser Zeit und war anfänglich nur über Hochschulrechenzentren erreichbar. Jene "300-baud-Zeiten", die beispielsweise durch Pioniere auf dem Gebiet der Datenübertragung wie Herrn Dr. Klaus Langner von der Elsa GmbH in Aachen, gefördert und weiterentwickelt wurden, bedurften noch eines hohen technischen Know-Hows, um mit anderen Usern kommunizieren oder chatten zu können. So waren die ersten "Internet-User" auch überweigend Elektrotechnik oder Informatik-Studenten. --188.100.32.130 19:32, 15. Apr. 2011 (CEST)

PC-Pioniere und "Cracks" der 80er Jahre

Mit 300 baud durch die 80er Jahre

War es oft müßig, mit 300 baud "online" zu gehen, so konnte jedoch kaum ein "Mailbox-User" schneller als 300 baud tippen.

Mailboxverbunde wie Fido- und MausNet schlossen sich zuzsammen und tauschten nachts ihre Daten aus. So war die Kommunikation nur zeitverzögert möglich. Zur Chatfunktion, wie damals Mitte der 80er in der WDR-Mailbox oder Elsa-Mailbox möglich, brauchte der "Sysop" der Mailbox mehrere zusammengelegte (analoge) Telefonzugänge und ein hohes technisches Hintergrundwissen. Bei den Usern handelte es sich deshalb auch nur um vereinzelte Elektrotechnik- oder Informatik-Studenten. --Puttins 19:57, 15. Apr. 2011 (CEST)

Die beiden obigen Punkte habe ich lieber in etwas gekürzter Form reingenommen. An anderer Stelle (siehe Links bei den 90ern und die Einzellinks) wird darauf näher eingegangen. --PeterFrankfurt 02:39, 16. Apr. 2011 (CEST)

Bildunterschrift falsch/ungenau

Als Bildunterschrift wird hier "Tablet PC" verwendet, dabei handelt es sich um ein iPad, der lt. Artikel über Tablet-Computer zu diesen gehören sollte. Weil der Artikel über Tablet PC "beschreibt auf Notebook-Hardware basierende Geräte nach Microsofts Tablet-PC-Spezifikation. Für die Klasse der fingerbedienten Touchscreen-Geräte, die auf spezialisierter Hardware basieren, siehe Tablet-Computer" Ergo sollte die Bildunterschrift iPad, Tablet-Computer, oder beides beinhalten. -- 78.34.182.23 00:11, 13. Mai 2011 (CEST)

So, jetzt müsste es etwas sauberer sein. --PeterFrankfurt 03:13, 13. Mai 2011 (CEST)

Geschichte in eigenen Hauptartikel ausgliedern?

Hallo, aus meiner Sicht macht es Sinn, die Computer-Geschichte in einen eigenen Hauptartikel auszugliedern. Wie seht ihr das? Liebe Grüße --DutiesAtHand 16:46, 18. Jun. 2011 (CEST)

Dann bliebe aber von diesem Artikel kaum noch was übrig ... Womöglich landet er dann in der Löschhölle. --PeterFrankfurt 00:49, 19. Jun. 2011 (CEST)

Ergänzender Weblink

1.7.2011

Als Ergänzung bei den Weblinks schlage ich vor: www.cc-computerarchiv.de CC-Computerarchiv mit über 15.000 Seiten über Computerhersteller, -Modelle und -Preise in Deutschland 1971 - 2001

Ulf Lesemann

--84.176.214.252 17:14, 1. Jul. 2011 (CEST)

Sorry, aber nach den Wikipedia-Richtlinien sehen mir die Seiten weniger nach Informationen (jenseits von Preisen) über die jeweilige Computertechnik aus, als nach reinen Vertriebsinformationen, und die sind nicht so richtig erwünscht. --PeterFrankfurt 01:53, 2. Jul. 2011 (CEST)

Meine Serie über die Geschichte des PCs...

... würde ich gerne diesem Wikipedia-Beitrag zumindest als Link hinzufügen. Aber ihr habt das ja gesperrt, so dass ich um Eure Zustimmung bitten muss. Meine Story ist hier: http://rv-extrablog.blogspot.com/2011/08/die-geschichte-des-pcs-der-urschrei.html Raimund Vollmer (nicht signierter Beitrag von 84.57.157.221 (Diskussion) 15:01, 11. Aug. 2011 (CEST))

Also von mir aus könnte das als Weblink rein, noch besser halt bei Personal Computer. Und wenn es dort rein käme, würde man eine Mehrfachverlinkung hier in einem zweiten Artikel allerdings lieber sein lassen... --PeterFrankfurt 01:47, 12. Aug. 2011 (CEST)
Ich sehe das auch so, dass der Link gut in den Artikel zum Personal Computer passt. Dein Vortrag ist gut gemacht. Vor allem durch den Titel "Die Geschichte des PCs" (statt "Die Geschichte des IBM-PCs") liest er sich jedoch so, als wenn IBM den PC erfunden hätte. War das Absicht? Wenn ja, dann siehe dazu bitte den letzten Absatz aus "Die Vorläufer des PCs", der sich auch mit IBM befasst. Wenn Du Dich für die Geschichte der PCs auch jenseits von IBM interessierst, dann kann ich Dir das Buch "iWoz: Wie ich den Personal Computer erfand und Apple mitgründete" von Steve Wozniak empfehlen (Deutscher Taschenbuchverlag, Oktober 2008, ISBN 978-3-423-34507-1). Für Nerds aus jener Zeit ist das ein herrlicher Rückblick.
Du schreibst ferner, dass der erste IBM-PC bereits für 1.565 US$ zu erwerben war. Unsere bisherige Quelle (Wolfgang Lassmann, „Wirtschaftsinformatik – Nachschlagewerk für Studium und Praxis“, ISBN 978-3-409-12725-7, S. 558) schreibt etwas von 3.000,- US$ bis 6.000,- US$. Wir liegen hier also falsch (bzw. hat der Autor wohl nicht sorgfältig recherchiert) und es wäre nett, wenn Du das mit Benennung Deiner Quelle in unserem Artikel korrigieren könntest. Wenn Du das nicht möchtest, dann wäre es nett, wenn Du mir Deine Quelle benennen könntest; dann nehme ich diese Anpassung vor.
Ich freue mich schon auf die Fortsetzung Deiner Serie. :o) Gruß, -- ηeonZERO  10:31, 12. Aug. 2011 (CEST)
In SPON steht heute auch was von 1565 Dollar. Aber wie gesagt, das ist mehr was für den PC-Artikel. --PeterFrankfurt 01:58, 13. Aug. 2011 (CEST)
Danke für den Hinweis. Ich habe den PC-Artikel korrigiert. -- ηeonZERO  07:22, 13. Aug. 2011 (CEST)

WL

WL hierher und deshalb zu erwähnen: (al. Kompiuter) (nicht signierter Beitrag von 194.230.155.20 (Diskussion) 23:22, 9. Sep. 2011 (CEST))

Nö! --Kaisersoft Audienz? Bewerten? 23:22, 9. Sep. 2011 (CEST)
Jö! -- 194.230.155.20 23:31, 9. Sep. 2011 (CEST)

Literatur

Bei den Literaturangaben fehlt ein Standardwerk zum Thema Geschichte des Computers: Friedrich Naumann: Vom Abakus zum Internet. Die Geschichte der Informatik. Darmstadt: Primus 2001. ISBN 3-89678-224-X Ich darf auf dieser Seite leider nicht schreiben. Vielleicht kann eine autorisierte Person diese Angabe hinzufügen. (nicht signierter Beitrag von 193.175.98.47 (Diskussion) 14:54, 30. Sep. 2011 (CEST))

Dieser Artikel erläutert Grundlagen aller Computer. Zum Typus des derzeit handelsüblichen Computers siehe Personal Computer.

So steht es oberhalb des Artikels und vermittelt den Eindruck, dass es derzeit nichts anderes mehr als Personal Computer gibt. Aber auch IBM System Z, Server, Bladecomputer und andere Mainframes sind noch immer handelsüblich und nehmen in Zeiten von Virtualisierung und "Rechnerwolken" sogar an Bedeutung zu.

Das wird im Artikel sogar erwähnt, aber das liest schon niemand mehr, der o. g. Link folgt. --80.187.96.89 18:50, 8. Okt. 2011 (CEST)

Ja, aber in der Technik sind die Gebiete ja klammheimlich zusammengewachsen: Meines Wissens ist so ein Z-Server wie jeder andere Rechenzentrumsserver aus genau solchen Mikroprozessoren aufgebaut, wie sie auch in Desktop-PCs stecken. Drumrum die Infrastruktur ist noch ein bisschen anders, aber nicht mehr so entscheidend anders wie früher. --PeterFrankfurt 02:03, 9. Okt. 2011 (CEST)

erfand 1703 das binäre Zahlensystem

Leibnitz dokumetierte... ?!

Wenn es einer erfunden hat, dann wohl Gott ;-)

-- (nicht signierter Beitrag von 194.245.79.82 (Diskussion) 15:09, 27. Okt. 2011 (CEST))

In der Bibel lese ich eigentlich nur dezimale Zahlenangaben. Man benutzt sowas ja auch nur, wenn es nützlich ist. Wer weiß, vielleicht hat auch schon einer der alten Griechen damit rumgespielt, da er aber keine Computer hatte, wäre es für ihn eher mühseliger als konventionelle Darstellungen gewesen. Aber da Leibnitz sich so auf keine Vorgänger stützen konnte, kann man mit aller Berechtigung von einer Erfindung sprechen. --PeterFrankfurt 02:49, 28. Okt. 2011 (CEST)

Weblink zu einfacher Begriffserklärung

Die Nutzer, die auf die Wiki-Seite „Computer“ oder „Personal Computer“ zugreifen, suchen meist nach Infos oder Erklärungen zu den Begriffen rund um Computer.

Die Seite, die ich verlinken würde, entspricht den Richtlinien laut WP:WEB (nicht kommerziell etc.). Es geht nur um die Frage: Gehört ein Verweis auf eine Seite, die fachlich Unerfahrenen eine Möglichkeit bietet mehr über Computer zu erfahren – und das sind die meisten die auf dieser Wikipedia Seite landen – oder hat so etwas in der Wikipedia nichts verloren? Auf welcher Wiki-Seite würde dieser Link sonst etwas zu suchen haben?

Ich arbeite nun schon seit Jahren mit Wikipedia und definiere Sie als Projekt mit dem Ziel Wissen zu vermitteln wo einem Bedarf erscheint. Ich habe festgestellt, dass viele, die auf dieser Wikipedia-Seite landen, eigentlich etwas ganz anderes erfahren wollen und sich wieder abwenden.

Wikipedia ist kein Projekt, dass es nur den Nutzern Recht machen will. Ich will auch nicht, dass die Seite „Computer“ komplett umgeschrieben wird. Das würde meinem Wiki-Gewissen widersprechen. Ich denke nur, dass ein weiterführender Link zu diesem Thema eine ganze Masse wissensdurstiger Menschen ein ganzes Stück weiterbringen würde. PS: in anderen Enzyklopädien findet man oft verweise auf andere Stellen, wenn ein Stichwort falsch interpretiert werden könnte. Wikipedia ist ja auch keine Hilfeseite sondern eine Enzyklopädie. Gerade deshalb sollten solche Inhalte extern bleiben und nur auf sie verwiesen werden. Hier die zu verlinkende Seite: Einfache Begriffserklärung und Hilfe beim Computerkauf Das ganze habe ich schon in meinem Diskussionsforum mit einem anderen Nutzer besprochen. Wir haben dann entschieden, die Mehrheit zu befragen. Kommentare sind erwünscht. :-) Lg --Pc-freund1 11:51, 25. Okt. 2011 (CEST)

Was als "einfach" anzusehen ist, darüber gehen die Meinungen halt auch schon extrem auseinander. Wenn Weblinks bisher abgelehnt wurden, dann meistens, weil die Erklärung dort weniger als einfach denn als dilettantisch und fehlerbehaftet anzusehen war. Wir haben da hohe Ansprüche an die Korrektheit, und es muss gegenüber dem Inhalt, wie er hier schon dargestellt ist, ein wirklicher Mehrnutzen ersichtlich sein, Stichwort "nur vom Feinsten". Wenn das alles erfüllt ist, kann man über Links immer auch reden. - Speziell der genannte Link ist keiner, der vor allem erklärt, wie ein Computer funktioniert oder was er ist, sondern eine Einkaufsberatung. Die eingestreuten Kurzerklärungen sind vor allem kurz und deshalb noch lange nicht erhellend oder verständlicher. --PeterFrankfurt 01:24, 5. Nov. 2011 (CET)
Außerdem blendet die Seite Werbebanner ein :-( . --Axel1963 09:53, 5. Nov. 2011 (CET)

iPad

Im Diagramm Computergeschichte fehlt der iPad, der ja den Druchbruch der Tablets-PCs einläutete. Ich würde gerne wissen wie ich den iPad dem Digramm hinzügen kann. Wer weiß da Rat? -- Fiver, der Hellseher 17:33, 7. Nov. 2011 (CET)
Ich habe das mal gemacht, danke für den Hinweis. --PeterFrankfurt 02:39, 8. Nov. 2011 (CET)

1964 definierte IBM die erste Computerarchitektur S/360, womit Rechner verschiedener Leistungsklassen denselben Code ausführen können und bei Texas Instruments wird der erste „integrierte Schaltkreis“ (IC) entwickelt.

Soweit ich weiß, hat Texas Instrumsnts den Integirerten Schaltkreis schon 1958 erfunden. (nicht signierter Beitrag von 84.130.184.87 (Diskussion) 16:42, 20. Nov. 2011 (CET))

Das ist das erste, was ich höre. Du kannst mich und Andere überzeugen, wenn Du entsprechende WP:Belege, Quellen etc. anführst. --PeterFrankfurt 01:34, 21. Nov. 2011 (CET)

Falsches Jahr (1941 statt 1943) bei Colossus?

"Die nächsten Digitalrechner waren der in den USA gebaute Atanasoff-Berry-Computer (Inbetriebnahme 1941) und die britische Colossus (1941)"

Nach meinen (zugegeben nicht umfangreichen) Wikipedia-Recherchen wurde Colossus 1943 gebaut.

-- 62.178.43.248 01:10, 2. Jan. 2012 (CET)

Definition

In der Einleitung wird ein Computer derzeit unscharf als ein bestimmter Apparat definiert (der Begriff ist dabei noch nicht einmal verlinkt). Aber was bringt dem Leser eine derart ungenaue Definition? Vielleicht passt ohnehin der Begriff Gerät besser? Eine Maschine ist es aus meiner Sicht nicht, da Rechner, außer in CD-Laufwerken etc. keine "beweglichen Teile" enthalten, falls die Wikipedia-Definition von Maschine hier üblich ist. 92.231.204.71 01:14, 2. Jan. 2012 (CET)

Also zwischen "Apparat" und "Gerät" sehe ich keine entscheidenden Unterschiede. Man will hier offensichtlich so vage bleiben, weil es halt mittlerweile so eine riesige Vielfalt an Computern gibt, hinsichtlich Größen, Bauweisen, Gestaltungen, Anwendungszwecken, größere oder geringe Breite ihrer Anwendungen usw., da würde man schnell irgendwelche wichtigen Teilmengen ausschließen, wenn man unvorsichtig vorgeht. --PeterFrankfurt 03:13, 2. Jan. 2012 (CET)

Laptopbild

Nicht, dass ich Dell jetzt schlechtmachen möchte - aber weiß jemand ein Bild, bei dem das Logo nicht gar so auffällig in den Mittelpunkt gerückt ist? --Joachim Durchholz 20:37, 5. Jan. 2012 (CET)

Ok, hab mal ein anderes genommen. --PeterFrankfurt 01:33, 6. Jan. 2012 (CET)

Begriff Elektronengehirn

Für das Lemma Elektronengehirn wurde 2007 eine Weiterleitung nach „Computer“ erstellt, hier wird der Begriff aber nicht einmal erwähnt. So wie ich es sehe, ist „Elektronengehirn“ a) ein veraltetes Synonym für Computer, das vermutlich irgendwann in den 1970er Jahren außer Gebrauch gekommen ist; und b) ein Konzept aus der Science-Fiction, das nicht hundertprozentig deckungsgleich mit dem heutigen Begriff Computer ist und im Zusammenhang mit Künstlicher Intelligenz eine Rolle spielt. Isaac Asimov schreibt auch vom Positronengehirn, inwieweit damit das Gleiche gemeint ist, wäre auch noch zu klären.--R. Nackas 14:39, 9. Feb. 2012 (CET)

Erster funktionsfäher digital Relays Computer

Das angenommene Patent von George Stibitz für sein Complex Computer http://www.google.com/patents?id=8cdqAAAAEBAJ&pg=PA1&source=gbs_selected_pages&cad=1#v=onepage&q&f=false Das war der erste funtionsfähige digital Computer überhaupt auf der Welt auf Relyas Basis! (Z1 und Z2 hatten das noch nicht (keine Relays!) (und nur voll mechanisch!) und sie funktionierten auch nicht! Z3 kam erst im Mai 1941 und das Patent von Zuse wurde auch bis in die 60 Jahre zurecht immer abgelehnt und die Schrift wurde auch von der UNESCO 2001 nicht angenommen!! George Stibitz bekam das Patent schon im April 1941, also gut einen Monat früher als der Z3 im Mai 1941 gezeigt wurde (und dann auch nur in Deutschland gezeigt wurde). Ausserdem funktionierte der George Stibitz Complex Computer auf Relays und Binär (digital) Basis schon 1938, also gut 3 Jahre früher als Z3! Konrad Zuse ist deutscher Medien und Politker Hype, mehr nicht!! Sämtliche Artikel, von Kornad Zuse und Z1 bis und Z3 sind daher auch völlig falsch und müssen überschrieben werden.... (nicht signierter Beitrag von 93.232.31.91 (Diskussion) 13:14, 12. Jan. 2012 (CET))

Keine Panik liebe unbekannte IP, die Artikel sind nicht falsch. Die Eigenschaften die einen Computer ausmachen, sind ja im Artikel beschrieben; insbesondere Turingmächtigkeit. Und die ergibt sich nach der Quellenlage für die Zuse Z3 im Mai 1941 fix und fertig als Hard- und Software (Lochstreifen). Selbstverständlich gab es anderswo auf der Welt auch gute Entwicklungen und/oder Ideen, aber die waren genau zu dem Zeitpunkt nicht Turingmächtig oder noch nicht realisiert. Liebe Grüße --DutiesAtHand 16:59, 9. Feb. 2012 (CET)
Z3 ist nur in der Theorie Turingvollständig, was auch erst Ende der 90er Jahre überprüft wurde, aber eben nur thoeretisch!! Und man darf und sollte auch dabei nicht vergessen, das Z3 nur einem kleinen Kreis vorgeführt wurde in Berlin. Hat er überhaupt 100% funktioniert? Das ist bis heute nicht bewiesen. Und während des Krieges wurde diese Z3 durch Bomben auf Berlin zerstört! Unabhängig davon wurde Eniac (US) und Kolossus (UK) von USA bzw. UK entwickelt. Das sind die beiden wichtigsten "damligen" Computer. Eniac wurde 1946 fertig gestellt, aber schon 1943 wurde damit angefangen. Und übrigens, in schriftliche Interiews von K. Zuse, (Kann man im Netz finden) sagte der Mann selber, "Ich habe den Computer nicht erfunden, ich sehe mich lediglich als ein Pionier von vielen anderen, aber ich bin nicht der Erfinder des Computer!". Diese Aussage von ihm ist mehr als korrekt und anständig, muss ich sagen. Aber was die deutschen Medien und Politiker heutzutage machen seid er tot ist, ist verlogener Mist! Ausserdem ist der "WIKI Computer" Artikel an vielen stellen falsch. Aber was will man machen, WIKI halt. (nicht signierter Beitrag von 93.232.11.135 (Diskussion) 19:43, 14. Mär. 2012 (CET))
Ehm, verwechselst Du da nicht die Versionen? Z3 ist zweifelsfrei gelaufen (Relais). Was kaum jemals überhaupt gelaufen ist, war die Z1, aber das war schon 1937. --PeterFrankfurt (Diskussion) 03:31, 15. Mär. 2012 (CET)
Nein, ich verwechsel da nichts. Das Z3 vernünftig gelaufen ist, kann niemand bestätigen, ausser ein paar deutsche die dabei waren (die nicht mehr leben), die aber nicht aussagekräftig genug sind. Und der Nachbau nach dem Krieg zählt ja nicht, da dieser evt. im Nachbau schon wieder leicht verbessert wurde (bessere relaises). Und nicht vergessen, Z3 wurde 1943 in Berlin angeblich von Bomben auf Berlin zerstört, zusammen mit allen Plänen und auch die Z1. Wo sind also internationale Fakten, das jemals was richtig lief, 1941 bei der Verführung?! Selbst Zuse gestand mal ein, er lief auch nicht wirklich gut. Aber was am meisten unseriös ist, die deutschen (durch Medien usw.) Feiern Zuse als den Übervater. (nicht signierter Beitrag von 87.160.96.106 (Diskussion) 12:33, 15. Mär. 2012 (CET))

Nicht zu vergessen, "John von Neumann", der Vater der modernen Computer Architektur! Ein jüdisches Genie, fast schon Übermenschlich was er alles geleistet hat. Nicht nur Computer. (nicht signierter Beitrag von 93.232.51.246 (Diskussion) 13:13, 15. Mär. 2012 (CET))

Ja und? John von Neumann hat meines Wissens nach nichts gebaut, der war doch wohl eher Theoretiker und Software-Begründer. Man müsste fragen, ob er damals in Kriegszeiten überhaupt in Deutschland bekannt war (so wie Zuse bei den Alliierten unbekannt war), dass man ihn hätte aktiv ignorieren können. - Dass der Nachbau der Z3 lief, kann man als starkes Indiz dafür werten, dass auch das Original zumindest prinzipiell dazu in der Lage war. Und wenn Du Dir das im Deutschen Museum in München mal angeschaut hast, da ist nur ein Teil der Relais als neuere Typen eingesetzt, große Teile der Maschine sind weiterhin mit den zeitgenössischen gebaut. --PeterFrankfurt (Diskussion) 03:00, 16. Mär. 2012 (CET)

Analogrechner

Operationsverstärker sind ganz streng genommen Analogrechner und nach wie vor milliardenfach im Einsatz.

http://books.google.de/books/about/Der_Operationsverst%C3%A4rker_als_Analogrech.html?id=T5v-ZwEACAAJ&redir_esc=y http://www.ph2.uni-koeln.de/fileadmin/Lehre/Fortgeschrittenenpraktikum/Analogrechner.pdf (nicht signierter Beitrag von 217.226.249.156 (Diskussion) 23:45, 26. Apr. 2012 (CEST))

PC Entwicklung, Meilensteine fehlen

An Wang, einer der Chefentwickler von IBM ( Kernspeicher und Speicher-Medien), zugleich einer der grössten privaten Aktienbesitzer der damaligen IBM ( 60-er,70-er Jahre) löst sich von IBm und gründet sein eigenes Unternehmen WANG Computers in Cambridge, Boston, USA. Wird in sehr schneller Zeit sehr berühmt und erreicht die weltweite Marktführerschaft für Editoren und Textverarbeitung - die anders als alle anderen sowohl auf Kleinrechnern als auch auf Grossrechnern läuft. An Wang hat neben seinen herausragenden Computern (z.B. VS) umfangreiche Schriften zur Ergonomie des Computers herausgegeben. Sein Anliegen war die absolute einfache Bedienbarkeit jeglicher Software und Transportfähigkeit einmal gekaufter Sw auf allen Rechner-Systemen. z.B. konnte man die eingesetzte SW auf dem PC ( 8086 Systeme VOR IBM!) mittels eines Listen-Converters auf ein anderes System übertragen oder transformieren und Dateien "übersetzen" lassen, um sie lauffähig zu machen. Erst nach dem Tod von An Wang operierte sein Sohn Frederick Wang im Chefposten die Firma und es begann eine sehr unglückliche Zeit wegen Unfähigkeit des Sohns, die strategischen Implikationen der Computer-Industrie zu erkennen und umzusetzen. An Wang hat aus Dankbarkeit zu seiner Herkunft ( Taiwan) die Computerindustrie dort mit begründet und grosszügig finanziell und ideell unterstützt.

Persönliche Bemerkung: leider habe ich die vielen Erste-Erfindungs-Hardware-Teile und Elemente wegen mehrfacher Umzüge nicht mehr im persönlichen Besitz- ein besuch in Boston lohnt sich ebenso wie eine gründliche Recherche über WANG Computers, die dann unter Frederick Wang fallierten und sämtliche wirklich innovativen Sw-Tools in der Versenkung verschwanden, weil sie dem strategischen Impetus der "maximizing revenue-strategy" zuwiderliefen. Henning Pawlik(henrypaul@t-online.de) (nicht signierter Beitrag von 84.177.42.157 (Diskussion) 10:53, 7. Aug. 2012 (CEST))

Programmiersprachen

Eine der wichtigsten Sprachen fehlt: Assembler. Nachdem ich mich selbst damit jahrelang abgemüht habe, stach mir das sofort ins wohlgeformte Auge. MAP(10.12.2012,11:35MEZ). (ohne Benutzername signierter Beitrag von 212.69.176.198 (Diskussion))

Spontan finde ich keine andere Programmiersprache. Warum denkst Du, dass Assembler rein muss? --P.C. 11:48, 10. Dez. 2012 (CET)

Mittelalter und Technik

Absatz: Frühe Entwicklung von Rechenmaschinen und -hilfsmitteln "Das Mittelalter schließlich hemmte den technischen Fortschritt. Doch ab der Neuzeit begann sich der Motor des technischen Fortschritts wieder langsam zu drehen und beschleunigte fortan – und dies tut er bis heute."


Das ist schlichtweg falsch. Im Mittelalter wurde das Wissen, das durch die Wirren der Völkerwanderung verlorgen gegangen war, wiederentdeckt, einige bedeutende Erfindungen wurden gemacht, der Keim für die Entwicklung der Wissenschaften gelegt, etc. siehe auch: http://www.spektrum.de/alias/inhaltsverzeichnis/highlights-3-2008/849267 Anders ausgedrückt: Zu Beginn des Mittelalters war die Technik auf einem ziemlich niedrigen Level und der "technische Fortschritt" begann bereits im Laufe desselben. Der zweite Satz über den "Motor des Fortschritts" mag ja sehr lyrisch sein, sagt aber rein gar nichts Themenrelevantes aus.

Aus diesem Grund sollte dieser Teil entfernt werden. (nicht signierter Beitrag von 193.83.255.136 (Diskussion) 23:23, 26. Jan. 2013 (CET))

Abschnitt "Siehe Auch" - seltsamer Link

Meiner Meinung nach tanzt der Link zu Philipp Matthäus Hahn im Abschnitt "Siehe Auch" etwas aus der Reihe und ist sicherlich weniger relevant als die anderen Eintraege in der Liste (auch wenn er Rechenmaschinen baute). Ich waere dafuer, diesen Eintrag zu entfernen. --Hobbes1651 (Diskussion) 22:22, 19. Feb. 2013 (CET)

du hast völlig recht, da sind auch noch ein paar andere Links, die absolut nichts mit dem Thema zu tun haben. Ich räume mal auf --Herbert Klaeren (Diskussion) 22:32, 20. Feb. 2013 (CET)

turingmächtig

Die Begriffe "turingmächtig" oder "turing-vollständig" gehören nicht in einen Beitrag über Computer. Kein Computer wird je turingmächtig sein, da jeder wirkliche Computer stets endlich viel Speicher hat. Selbst ein Computer, der auf jedem Atom des Weltalls eine Zahl mit 100 bits speichert, hat nur endlichen Speicherplatz und ist nicht turingmächtig. Der Begriff der "Berechenbarkeit" ist rein theoretisch und ohne jegliche Anwendbarkeit auf die Wirklichkeit der Computer.

Besser man verwendet die Begriffe "frei programmierbar" oder "von-Neumann-Architektur"

--Bigben.in (Diskussion) 13:47, 29. Mai 2013 (CEST)

bilder am Anfang

sind etwas undurchdacht. Besser nach einem Konzept gruppieren, also chronologisch und/oder thematisch. Aber eben bitte nicht vermischt. Gallery wäre super. Leider ist der Artikel für IPs gesperrt. --93.134.251.98 19:02, 27. Mär. 2014 (CET)

Also sooo viele Bilder, dass es verwirrend oder unübersichtlich würde, stehen da am Anfang ja auch nicht. Es ist halt grob chronologisch plus absteigend von den großen Eisen zu immer kompakteren Geräten geordnet. - Eine Gallery wäre möglich, aber man kann auch gleich dem Commons-Link unten bei den Weblinks folgen, da hat man dann das volle Programm. --PeterFrankfurt (Diskussion) 03:11, 28. Mär. 2014 (CET)

Abnahme der Suchfrequenz nach Computer

„Die weltweite Websuche nach dem Begriff „Computer“ nimmt seit Beginn der Statistik 2004 stetig ab. In den 10 Jahren bis 2014 war diese Zugriffszahl auf ein Drittel gefallen.“

Die Suchfrequenz nach dem Begriff alleine ist nur eine Beobachtung. Die Frage, die sich unmittelbar anschließt, ist: Wurde der Begriff durch einen äquivalenten Begriff verdrängt? Eine alternative Erklärungsmöglichkeit: Ist der Begriff zu unspezifisch, dass viele Ersatzbegriffe stattdessen gesucht werden (bspw. Tablet, Smartphone, iPad oder was weiß ich)? Oder wird der Computer etwa unwichtiger (das würde ich ausschließen)?

Allein die Statistik einfach in den Raum zu stellen und darauf hinzuweisen, dass "Computer" weniger häufig gesucht wird, ist sinnlos, da keine Erklärungshilfe gegeben wird. Eine solche zu entwickeln, ist auch nicht Aufgabe der Wikipedia (wegen WP:TF). Also: Entweder jemand hat sich mit der Suchfrequenz näher beschäftigt und kann hier zitiert werden oder wir lassen das Thema vorerst raus. -- Gut informiert (Diskussion) 22:47, 23. Mai 2014 (CEST)

Sind die Angaben von Google dort überhaupt absolut? Es scheint nämlich eigentlich nicht so. Und damit wäre die Lösung ganz einfach: Es wird nun zusätzlich vermehrt nach anderen Dingen gesucht. Da das Internet 2004 vergleichsweise noch nicht so verbreitet bzw. so stark bzw. so stark wie in der jetzigen Form (Nachrichten, Infos, Boulevard, ..) verwendet wurde, ist eine Verschiebung vom computernahen Anwender von damals her wohl gegeben. Andererseits wäre dafür das Interesse an "Computer" trotzdem noch ziemlich hoch. Der Google-Graph scheint aber ehrlich gesagt ziemlich nutzlos mit den Daten, die dort lediglich angegeben werden.
Ansonsten stimme ich zu, so passt es auf jeden Fall nicht rein. Beste Grüße, --#Reaper (Diskussion) 01:42, 24. Mai 2014 (CEST)
Ich finde solche Trendangaben schon erhellend. Dass man sie noch intensiv interpretieren könnte, steht außer Frage, aber das Zitat regt doch gerade zu Überlegungen an, wie sie eben von Euch angestellt wurden, und das ist doch fruchtbar. Ob diese Daten nun wissenschaftlich verlässlich sind, kann man von hier aus kaum überprüfen, aber ich bin bereit, sie erstmal zu glauben. Den Satz aber mit der Begründung "Spekulation" zu entfernen, finde ich sachfremd, da es sich zum allergrößten Teil eben nicht um Spekulation, sondern um empirisch erhobene Daten handelt. --PeterFrankfurt (Diskussion) 03:26, 24. Mai 2014 (CEST)

Ok: Um zu zeigen, wie beliebig die Daten sind, betrachte man bitte die folgenden Diagramme.

[1] Das erste zeigt die Häufigkeit der Verwendung des Wortes "Computer" im englischen Bücherkorpus von Google Books, angetragen auf einem Zeitstrahl.

[2] Das zweite zeigt die Häufigkeit der Verwendung des Wortes "Computer" im deutschen Bücherkorpus. Die Häufigkeit des Wortes "Rechner" habe ich aus Synonymgründen ebenfalls darstellen lassen.

[3] Um die Sache abzurunden, folgt abschließend eine Suche im französischsprachigen Bücherkorpus nach den Wörtern "ordinateur" und "computer".

Das Wort "Computer" zeigt in den Bücherkorpora, die bis 2008 reichen, unterschiedliche Trends auf. Im Englischen nimmt die Häufigkeit ab. Im Deutschen zeigt der Trend dagegen klar aufwärts (auch für "Rechner"). Im Französischen nimmt die Häufigkeit von "Computer" zwar ab, aber die Häufigkeit von "ordinateur" steigt seit Internetzeitalterbeginn wieder.

Ja, das ist alles interessant. Aber was ist die Aussage dahinter? Keine Ahnung. Erhellend wäre ein (wissenschaftlicher) Beitrag eines Sprachwissenschaftlers. Ich habe bspw. die gesuchten Alternativbegriffe zu Computer aus der Luft gegriffen, weil mir gerade danach war. Mit hoher Wahrscheinlichkeit haben Sprachwissenschaftler Tools, um verdrängende Synonyme zu identifizieren. Das wäre bei einem Wort wie Computer meiner Meinung nach aber wichtig, da (und da spreche ich jetzt als Informatiker) Computer nicht seit Jahren irrelevanter werden, vor allem in der englischsprachigen Welt. Letzteres wäre aber ein naheliegender Fehlschluss, der sich aus den Google-Trends ergibt, die ihr im Artikel haben wollt. Aus diesem Grund: Bitte raus damit! -- Gut informiert (Diskussion) 09:55, 24. Mai 2014 (CEST)

leute, keine aufregung, ich hatte die google statistik nur bemüht, um mir über einige trends klar zu werden, siehe hier auf meiner webseite. da fiel mir dieser signifikante, stete abstieg regelrecht vor die füße. kann jemand gern wieder aus dem artikel rausnehmen, ist aber doch schön zu wissen, oder? auch, dass der begriff "computer" vor allem aus afrika nachgefragt wird. grüße, Maximilian (Diskussion) 11:00, 24. Mai 2014 (CEST)

Atari

Könnte jemand bitte die Links zu den Firmenartikeln der Atari-Namensträger präzisieren?

Abschnitt 1970er:

  • "1979 schließlich startete Atari den Verkauf seiner Rechnermodelle 400 und 800" --> Link auf [[Atari, Inc. (1972)|Atari]]

Abschnitt 1980er:

  • Im Januar 1985 stellte Atari den ST-Computer auf der Consumer Electronics Show (CES) in Las Vegas vor. --> [[Atari Corporation|Atari]]

Abschnitt Bekannte ehemalige Computerhersteller:

  • Atari ersetzen gegen {{USA|#}} [[Atari, Inc. (1972)|Atari, Inc.]] und {{USA|#}} [[Atari Corporation]]

Vielen Dank -- 92.226.201.248 12:03, 12. Jun. 2014 (CEST)

Gute seit zum lernen Moderne Computer (nicht signierter Beitrag von Jedentag (Diskussion | Beiträge) 19:07, 30. Okt. 2014 (CET))

Abschnitt Nachkriegszeit

Ich bin mir nicht sicher aber der ENIAC arbeitet ja mit dem dezimalsystem, also ist die Bezeichnung dort das dieser digital wäre falsch, oder? (nicht signierter Beitrag von 31.11.10.157 (Diskussion) 23:57, 4. Jan. 2015 (CET))

Nein, die Bezeichnung ist nicht falsch. Dezimal ist auch digital.

--Framanzki (Diskussion) 17:56, 2. Feb. 2015 (CET)

Neuen Artikel Computing

Ist es angebracht, einen eigenen Artikel für den Begriff Computing anzulegen? Sowohl im englischen (en:Computing) als auch in 38 anderen Sprachen gibt es Artikel dazu.

Duden beschreibt Computing als das Rechnen mit dem Computer[1]

Das Oxford Dictionary schreibt: The use or operation of computers: developments in mathematics and computing[2]

--Fretdf (Diskussion) 09:56, 4. Feb. 2015 (CET)

ich fände das nicht nötig, würde mich aber nicht dagegen stellen. Computing kann ja schön kurz bleiben. Maximilian (Diskussion) 10:17, 4. Feb. 2015 (CET)
Habe einen kurzen Artikel angelegt: Computing. --Fretdf (Diskussion) 23:16, 8. Feb. 2015 (CET)

Überschneidung in der Geschichte?

Gibt es nicht eine Überschneidung mit der Geschichte der Automaten, die im Artikel unter dem Geschichteteil fehlt oder vernachlässigt wird? Man könnte auch den Computer als eine Form des Automaten auffassen und umgekehrt den Automaten als eine Verallgemeinerung des Computers... Oder sehe ich das falsch? (nicht signierter Beitrag von 178.6.48.50 (Diskussion) 11:21, 31. Mär. 2015 (CEST))

Erweiterung

Bin neu bei Wikipedia. Würde jedoch die relativ kurz beschriebenen Jahrzehnte z.B. 1970er Jahre gerne erweitern. Habe für mein Abitur bereits eine 40-seitige Arbeit über Computergeschichte verfasst. (nicht signierter Beitrag von Licona1928 (Diskussion | Beiträge) 16:34, 10. Apr. 2015 (CEST))

Eine weitere Ergänzung, die mir gerade thematisch in der Sinn kam: Mechanische Rechner: Foto/Zeichnung des Zahlenschlosses von Leonardo Da Vinci, Klang-Berechung: siehe Hammond Orgel. MfG, Hannes E.Schäuble (nicht signierter Beitrag von 85.176.231.134 (Diskussion) 18:27, 13. Jan. 2016 (CET))

Zeitleiste

Könnte bitte die Herrin oder der Herr über die Zeitleiste den Link zu "Phablet" auf Phablet setzen? – Danke! --Till.niermann (Diskussion) 19:49, 9. Jun. 2016 (CEST)

Der Computer als Elektrogerät

Die Einleitung definiert einen Computer als "Gerät, das mittels programmierbarer Rechenvorschriften Daten verarbeitet". Im Abschnitt Geschichte wird der Computer als Elektrogerät klassifiziert. Aus der Definition geht allerdings nicht hervor, daß ein Computer ein Elektrogrät sein muß bzw. warum das die bevorzugte Bauweise ist. Darauf sollte zumindest in der Einleitung kurz eingegangen werden. (nicht signierter Beitrag von 2001:8D8:1FF:1040:38FA:3294:17A6:9ED9 (Diskussion | Beiträge) 09:03, 8. Dez. 2016 (CET))

dateiverzeichnis? ordner?

Ich konnte keinen deutschen artikel finden den ich mit https://en.wikipedia.org/wiki/Directory_(computing) hätte verknüpfen können. --Espoo (Diskussion) 13:54, 3. Feb. 2017 (CET)

Taschenrechner, Tischrechner

bis weit in die 1990 ziger -Rechner-


9 Jahre gesperrt .. aber sonst geht es allen gut? (nicht signierter Beitrag von 92.77.93.22 (Diskussion)15:25, 7. Aug. 2018‎ )

Wenn du damit ein Problem hast, kannst du gerne ein entsperren auf WP:EW beantragen. --Natsu Dragoneel (Diskussion) 15:30, 7. Aug. 2018 (CEST)

Bezeichnung Rechner

„Der deutsche Begriff Rechner bezeichnet bis heute Menschen, die das Rechnen praktizieren; er ist abgeleitet vom Verb rechnen. Zu dessen Etymologie siehe Rechnen#Etymologie.“

Das glaube ich kaum, im Allgemeinen wird, glaube ich vielmehr, zuerst die Maschine assoziiert, wenn von einem Rechner die Rede ist. Ich wüsste jetzt nicht, vor welchem Hintergrund je ein Mensch so bezeichnet würde.--༄U-ji (Diskussion) 08:03, 29. Okt. 2018 (CET)

@༄U-ji: Da liegst du leider falsch. Genauso, wie es dereinst mal den "Schreiber" gab, gab es auch den "Rechner" (siehe z.B. Computus (Osterrechnung)). Liegt einfach daran, dass der Durchschnittsbuerger damals so etwas gar nicht konnte. Auch die ganzen astronomischen Berechnungen haben die "klingenden Namen" (Tycho Brahe et. al.) nicht alle selbst ausgefuehrt waere gar nicht zu schaffen gewesen. MfG -- Iwesb (Diskussion) 09:14, 29. Okt. 2018 (CET)

Ist mir schon klar, ist aber heutzutage eher nicht so gebräuchlich und höchstens eine Randnotiz wert. Deshalb die Löschung.--༄U-ji (Diskussion) 11:11, 29. Okt. 2018 (CET)


1. Der Erfinder des Rechners/Computers war ein Deutscher, nämlich Konrad Zuse, dessen 100. Geburtstag wir im nächsten Jahr würdig begehen sollten. Die Z3 von 1941 war der erste funktionstüchtige Digitalrechner. Zuse hatte die elektronische Rechenanlage bereits 1933 erfunden.

Die Grundbausteine von 1933 sind bis heute die gleichen geblieben: Zentraleinheit und Rechenwerk, Hauptspeicher, Massendatenspeicher, Ein- und Ausgabegeräte und Peripherie. Außerdem hat Zuse 1942 bis 1946 auch die erste höhere Programmiersprache der Welt namens „Plankalkül“ erfunden.

2. Zuse selbst nannte den Rechner selbstverständlich „Rechner“. Dies ist also in Wirklichkeit die ursprüngliche Bezeichnung, nicht etwa ein späterer krampfhafter Eindeutschungsversuch.

3. „Computer“ (lateinisch „computator“) heißt auf deutsch auch nichts anderes als „Rechner“.

4. Das Wort „Rechner“ greift nicht etwa zu kurz, denn alles, was der Computer ausspuckt, ist das Ergebnis einer Rechenleistung.

5. Das Wort „Computer“ hat im Deutschen den Nachteil, daß es anders geschrieben als gesprochen wird.

6. Das Wort „Rechner“ gibt dem deutschen Muttersprachler nicht nur eine wichtige Information darüber, was das Gerät tut – so glauben manche tatsächlich, daß der Rechner nicht rechnet, wenn man mit ihm zum Beispiel Texte verarbeitet –, sondern erlaubt auch die sinnvolle geistige Erschließung einer ganzen Wortfamilie.Tecumseh*1301 (Diskussion) 17:19, 14. Nov. 2018 (CET)

Ich würde den Begriff gerne umbenennung und eine Redirect von „Computer“ auf „Rechner“ erstellen. Ist doch nicht schlecht, dass man heutzutage öfter das ursprüngliche Wort „Rechner“ als das schwierige und langatmige „Computer“ benutzt. Irgendwelche Gegenstimmen? Tecumseh*1301 (Diskussion) 17:21, 14. Nov. 2018 (CET)

@Tecumseh*1301: @Iwesb: Das Deutsche ist von Alters her eine Mischsprache, was einen Sprachschatz gewöhnlich befruchtet und eine Sprache lebendiger hält, als zum Beispiel die Verwendung inzwischen historischer und starrer Teutonismen, wie in diesem Fall. Computer ist in gewisser Weise eher bundesdeutsches Hochdeutsch als Rechner in dem Sinn, in dem es hier eingebracht werden soll. Abgesehen davon wäre ein entsprechender Antrag sowieso nicht durchzukriegen, die Mühe also obsolet.--༄U-ji (Diskussion) 07:52, 9. Mär. 2019 (CET)

Wer hat das zu entscheiden? Und warum sollte dieser Vorschlag keine Zustimmung finden? Entschuldigung, aber mir macht es eher den Anschein, als ob hier das Wort „Computer“ einem aufgezwungen werden soll. Wie gesagt: Das Wort ist zu langatmig und nicht das Original. Außerdem ist Rechner gebräuchlich und für jeden verständlich. Man kann doch nicht nur aus Starrköpfigkeit eine Änderung verhindern wollen. --Tecumseh*1301 (Diskussion)

Das würde wohl am ehesten realitätsfremd genannt werden – kein Mensch nennt einen Computer Rechner, außer in wirklich entfernten Gegenden, einen Steinwurf weg von der Zivilisation. Den Kulissen der postmodernen Gesellschaften, den Peripherien der Sprachlichkeit und mit dem Gedanken den Grenzen der Welt. Aber Du bist ein Idealist, das kommt rüber ...--༄U-ji (Diskussion) 19:14, 11. Mär. 2019 (CET)

@༄U-ji: Also ich bin noch nicht alt und bei mir (in einer Großstadt) haben geschätzt 50% der Schüler im Informatikunterricht "Rechner" gesagt - das waren dann wohl alles Idealisten deiner Meinung nach? Auch in meiner Arbeit im telefonischen Kundendienst bei Fragen zu Problemen am Rechner haben dieses Wort ein großer Teil genutzt. Aber gut, wir können hier diskutieren, am Ende fehlt uns beiden eine geeignete Studie.

Aber letzten Endes kann wohl niemand, auch du nicht behaupten, niemand würde "Rechner" sagen in der "Zivilisation" - und damit hast du dich als der wahre idealist unter uns beiden zu erkennen gegeben. Was nicht schlimm ist.--Tecumseh*1301 (Diskussion) 16:43, 3. Mai 2019 (CEST)

@Tecumseh*1301: Das stimmt. Sprache entwickelt sich schnell. Ich erinnere mich nur ungern an die letzten Auseinandersetzungen zum Thema Song oder Lied hier. Ich kenne das so, dass Rechner wenn, dann mehr oder weniger als Hüllwort verwendet wird. Ob es inzwischen für den Sprachgebrauch repräsentativer ist, wie es beim Wort Lied der Fall zu sein scheint, kann sicher ohne Studie nicht nachvollzogen werden. Vielleicht wird wieder vermehrt Rechner gesagt, weil Rechner einen Nenner für die diversen Devices, wie iPhone, iPad, PC und so weiter, bietet. PC sagt ja auch kaum noch wer, das ist sicher out. Sorry, dass ich oben etwas literarisch geworden bin, ich war gleichzeitig noch woanders dran ... Viele Grüße--༄U-ji (Diskussion) 07:40, 4. Mai 2019 (CEST)
Hier noch zwei Links zur aktuellen und historischen Frequenz: [4] und [5].--༄U-ji (Diskussion) 09:05, 4. Mai 2019 (CEST)

Menschlicher Computer bei Begriffsgeschichte

Im Abschnitt Begriffsgeschichte kann man zu Menschlicher Computer verlinken, da ein Artikel vorhanden ist. Ich kann das nicht, da die Seite geschützt ist. --Fabian von Treuen (Diskussion) 20:41, 19. Feb. 2021 (CET)

erledigt. --༄U-ji (Diskussion) 21:23, 19. Feb. 2021 (CET)
Danke. --Fabian von Treuen (Diskussion) 22:35, 19. Feb. 2021 (CET)
Archivierung dieses Abschnittes wurde gewünscht von: Fabian von Treuen (Diskussion) 14:46, 23. Feb. 2021 (CET)

Geschichte

Es fehlen hier die Lochstreifen, die im 18. Jahrhundert noch vor den Lochkarten Webstühle betrieben und natürl. auch ein Programm eingestanzt hatten. Bitte ergänzen, ich kanns nicht, da der Art. gesperrt--2A02:1205:C6B7:AAD0:64A8:F2F9:38F6:1B61 12:21, 1. Jun. 2016 (CEST)

Während des Zweiten Weltkrieges gab Alan Turing die entscheidenden Hinweise zur Entzifferung der ENIGMA-Codes und baute dafür einen speziellen mechanischen Rechner, Turing-Bombe genannt. ist das so richtig? handelte es sich hier nicht um den nachfolger der enigma der entschlüsselt werden sollte? bitte prüfen (nicht signierter Beitrag von 2A02:810D:8DC0:4E80:60EB:4961:3468:400D (Diskussion | Beiträge) 01:23, 4. Aug. 2016 (CEST))
Geschichte wurde ausgelagert in eigenen Artikel analog zur englischen Wikipedia. Ich habe den Abschnitt hier gekürzt, damit nicht alles doppelt ist und parallel die Artikel weiterbearbeitet werden. Eine Kurzfassung der Geschichte wäre hier im Artikel sicher noch möglich, wenn jemand Lust hat, das zu machen. Wega14 (Diskussion) 16:23, 20. Jun. 2017 (CEST)
  1. http://www.duden.de/rechtschreibung/Cloud_Computing
  2. http://www.oxforddictionaries.com/de/definition/englisch/computing