Diskussion:CUDA

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 2 Jahren von 2A02:810B:C940:4798:54AC:C72D:DEE1:8258 in Abschnitt CUDA Version nicht aktuell
Zur Navigation springen Zur Suche springen
Diese Diskussionsseite dient dazu, Verbesserungen am Artikel „CUDA“ zu besprechen. Persönliche Betrachtungen zum Thema gehören nicht hierher. Für allgemeine Wissensfragen gibt es die Auskunft.

Füge neue Diskussionsthemen unten an:

Klicke auf Abschnitt hinzufügen, um ein neues Diskussionsthema zu beginnen.

Treiber[Quelltext bearbeiten]

ich denke es sollte noch etwas dazu gesagt werden ob spezielle treiber benötigt werden, oder ob es ne minimal version gibt, oder ob neuere treiber schnellere programme bedeuten etc. (nicht signierter Beitrag von 87.155.79.40 (Diskussion) 14:24, 5. Feb. 2011 (CET)) Beantworten


In Zukunft?[Quelltext bearbeiten]

"In Zukunft soll die Technik auch zur Berechnung aufwändiger PhysX-Effekte genutzt werden." Ist so leider etwas unsinnig, da es eben erst seit der Portierung auf CUDA grösseres Ansehen findet. Die ersten PhysiX-Spiele gab es mMn schon 2007. Ist also längst keine Zukunftsmusik mehr. Hier (http://physx.cwx.ru/) findet man eine schöne Auflistung mit Informationen zum Ageia bzw. Cuda-interface. ~~Andy386
(Der vorstehende Beitrag stammt von Andy38615:39, 25. Jan. 2009 (CET) – und wurde nachträglich vollständig signiert.)Beantworten

Die Webseite sieht auf den ersten Blick recht nützlich aus, da mein Englisch aber nicht ausreichend dafür ist und die Webseite anscheinlich in Russland gehostet wird, mißtraue ich eher dieser Seite und würde sie so unreflektiert auch nicht im Artikel oder als Quelle verwenden nennen.
MfG .. Konrad F. 18:09, 9. Mai 2009 (CEST)Beantworten

Was bitte ist ein PhysX-Effekt ?! (nicht signierter Beitrag von 92.225.3.247 (Diskussion) 01:17, 5. Aug. 2010 (CEST)) Beantworten

Physx lies dir das mal durch, bitte in Zukunft die Suchfunktion benutzen,IP -- Moehre1992 14:32, 5. Feb. 2011 (CET)Beantworten

Kleiner Fehler[Quelltext bearbeiten]

Der Link zu CUDA.NET ist nicht mehr gültig. (nicht signierter Beitrag von Hx50 (Diskussion | Beiträge) 11:07, 2. Okt. 2009 (CEST)) Beantworten

Suche nach außerirdischem Leben[Quelltext bearbeiten]

"Am 17. Dezember 2008 folgte der Client von SETI@home, der die Suche nach außerirdischem Leben bis zu 10-mal schneller absolvieren kann." -> Wie kann etwas, das noch nie gefunden wurde, 10 mal schneller gefunden werden? (nicht signierter Beitrag von 85.179.223.178 (Diskussion | Beiträge) 16:47, 15. Mär. 2010 (CET)) Beantworten

Die Suche nach außerirdischem Leben ist 10-mal schneller. Die verwendeten Algorithmen werden schneller ausgeführt. --Das Ed 22:25, 15. Mär. 2010 (CET)Beantworten

Einleitung sehr schlecht[Quelltext bearbeiten]

"Technik zur Beschleunigung wissenschaftlicher und technischer Berechnungen durch Einbeziehung der Grafikkarte in die Berechnungen." Wo steht, dass man damit nur wissenschaftliche und technische Berechnungen beschleunigen kann ? Das trifft es nämlich nicht auf den Punkt. Es geht ganz einfach um Beschleunigung bei nicht-sequentieller Programmierung ! (nicht signierter Beitrag von 92.225.3.247 (Diskussion) 01:17, 5. Aug. 2010 (CEST)) Beantworten

  • Es geht ganz einfach um Beschleunigung... das ist auch noch nicht ganz richtig, es geht eigentlich erst mal nur darum, dass zusätzliche Rechenkapazität in Form der GPU angeboten wird. Ob das was Beschleunigt, hängt vom konkreten Fall ab (Hardware, Programmierung usw.) und kann nicht wirklich Garantiert werden. Natürlich wünscht man sich dadurch eine Beschleunigung bei jeglicher und ins Besondere bei der nicht-sequentiellen Programmierung.--Nmoas 14:15, 11. Sep. 2010 (CEST)Beantworten

Missbrauch der CUDA Technologie beim Knacken von Passwörtern[Quelltext bearbeiten]

Ich weiß nicht, ob sowas in den Artikel gehört, aber die CUDA Technologie wird mittlerweile dazu missbraucht, um das Knacken von Passwörtern durch Bruteforce-Angriffe oder das Erstellen von Rainbow-Tables zu beschleunigen. Weiß dazu jemand genauere Daten? Ich hab das mal gelesen und wollte das Beisteuern, finde aber gerade die Ausgabe der c't, Computer-Bild oder PC-Welt nicht. - Chris 01:23, 16. Feb. 2011 (CET)Beantworten

http://www.heise.de/newsticker/meldung/GeForce-8-knackt-Passwoerter-188191.html -- Global667 14:12, 16. Feb. 2011 (CET)Beantworten
Zum Sprachgebrauch: CUDA kann das Herausfinden von Passwörtern beschleunigen; da es dafür durchaus auch positive Anwendungsfälle gibt, wird hierbei CUDA nicht "missbraucht", sondern "verwendet". Ansonsten
"wer noch nie ein Passwort vergessen hat, werfe den ersten Stein" (oder so ähnlich *g*)
--arilou 14:17, 20. Jul. 2011 (CEST)Beantworten

Telsa Karten[Quelltext bearbeiten]

"Die Tesla-Karten von Nvidia wurden ausschließlich zum Einsatz der CUDA-Technologie entworfen. Ihnen fehlt es an Anschlüssen für Monitore."

Dieser Satz ist so falsch:

  • Alle aktuellen CUDA Karten der C Serie haben einen Grafikausgang [1]
  • Desweiteren klingt es so als sei nur CUDA möglich, viel mehr sind die Karten für High Performance Computing entwickelt worden und erlauben selbstverstänlich auch dein Einsatz von OpenCL: "Viele speziell für allgemeine Berechnungen auf dem Grafikprozessor entwickelte CUDA und OpenCL Software-Merkmale werden nur von Tesla Produkten unterstützt". [2] (nicht signierter Beitrag von 79.203.27.172 (Diskussion) 17:07, 15. Jan. 2012 (CET)) Beantworten

"nicht-sequentiell"[Quelltext bearbeiten]

"wobei die GPU im Allgemeinen bei nicht sequentiellen Programmabläufen signifikant schneller arbeitet als die CPU"

Ich denke, hier wird "sequentieller Programmablauf" fälschlicherweise gleichgesetzt mit "Sequentialisierung", genauer mit "sequentiell-abhängiger Programmablauf". Hm, imo wären die meisten CUDA-Programme ansonsten sehrwohl sequentielle Programmabläufe. Es geht doch wohl vielmehr um parallelisierbare Rechnungen. Vorschlag:

"wobei die GPU im Allgemeinen bei (hochgradig) parallelisierbaren Programmabläufen signifikant schneller arbeitet als die CPU"

--arilou (Diskussion) 09:31, 10. Dez. 2012 (CET)Beantworten

Doppelte Verneinung vermeiden ist immer eine gute Idee. :-) --RokerHRO (Diskussion) 16:25, 10. Dez. 2012 (CET)Beantworten

CUDA ist KEIN Akronym sondern ein Eigenname![Quelltext bearbeiten]

Hallo an alle Autoren dieses Artikels,


ich habe einen Beleg gefunden, dass der Titel dieser Wikiseite nicht richtig ist, weil CUDA NICHT 'Compute Unified Device Architecture' heißt. Siehe hierzu das folgende Youtube-Video:

Accelerate Your Programming or Science Career with GPU Computing: An Introduction to Using CUDA

Der Vortrag wird von Mark Ebersole gehalten, einem NVIDIA Mitarbeiter. Ab ca. 28:26 (und folgende) sagt er, dass CUDA kein Akronym ist und 'Compute Unified Device Architecture' nicht nur falsch ist, sondern eigentlich auch keinen Sinn macht.

Er erklärt, dass der Entwickler von CUDA die Technologie nach seinem Auto, einem Plymouth Cuda benannte.

Ich schlage daher vor, dass der Titel der Wikiseite und die Beschreibung dementsprechend geändert, und falls notwendig das Video als Referenz angegeben wird.

Ich wollte den Titel nicht eigenmächtig ändern, sondern erstmal eine Diskussion dazu anstoßen.


MfG

--Wese3112 (Diskussion) 13:21, 18. Feb. 2013 (CET)Beantworten

Hab' mal ein wenig auf NVidias Website gestöbert, und der Begriff "Compute Unified Device Architecture" ist tatsächlich äußerst schwer zu finden. Und wenn, dann ist's kein NVidia-Mitarbeiter oder keine NVidia-Veröffentlichung, die diese "Ausschreibung" verwendet.
Lediglich diese eine Mitteilung von NVidia konnte ich finden.
Daher sieht Wese3112's Einwand gar nicht soooo abwegig aus...
--arilou (Diskussion) 16:23, 18. Feb. 2013 (CET)Beantworten
Ich kann mir das Video zwar nicht anschauen, aber arilou hat ja schon ein Beispiel genannt, in dem tatsächlich Nvidia CUDA als Compute Unified Device Archietektur ausschreibt. Das der Name nicht sonderlich viel Sinn macht, steht auf einem anderen Blatt. Aber damals, mit Unified Shadern fand man wohl toll, wenn man das Unified auch noch in das CUDA mit reinbringt. Und vielleicht hat der Entwickler den Namen Cuda tatsächlich nach einem Auto gewählt, aber das Marketing hat dann daraus ein Akronym gemacht. Fakt ist jedoch, dass sich kein Wikipedianer den Blödsinn ausgedacht hat und der Name direkt von Nvidia kommt. Außerdem hat arilou nicht gründlich gesucht, den eigentlich musste man nur in der History von Wikipedia nachschauen, als man das Lemma suchte. Da ist eine der vielen Quellen für die Namensgebung verlinkt. Im Programming Guide von CUDA, gleich im Titel...: http://www.mpe.mpg.de/~umaio/manual_NVIDIA_CUDA_Programming_Guide_1.1.pdf
Es spricht zwar aus meiner Sicht nichts dagegen die Kurzform "CUDA" als Lema zu nehmen, aber der aktuelle Titel ist nicht falsch, in dem Sinne, dass es direkt von Nvidia stammt. Ob Nvidias Marketing aus einem Namen ein nicht ganz passendes Akronym gebastelt hat oder nicht, sind dann eher Hintergrundinfos für die Insider.... --21:53, 18. Feb. 2013 (CET)
1) Du beziehst dich wohl mit "History von Wikipedia" auf
http://developer.download.nvidia.com/compute/cuda/1_1/NVIDIA_CUDA_Programming_Guide_1.1.pdf
ein toter Link. Die Adresse
http://www.mpe.mpg.de/~umaio/manual_NVIDIA_CUDA_Programming_Guide_1.1.pdf
hast du dann jetzt (per Google o.ä.) herausgesucht, um selbiges Programming Guide noch irgendwo im Netz aufzufinden?
2) Das ist ein prominentes Dokument, ja. Dennoch ist abzuwägen, ob nicht eine Lemma-Verschiebung auf "CUDA" angebracht wäre, wenn nVidia inzwischen komplett davon abgerückt ist, es als Abkürzung für "Compute Unified Device Architecture" zu verstehen - und selbiges scheint der Fall zu sein. Im Artikel verbliebe dann ein Hinweis à la "Zeitweise/anfänglich vermarktete Nvidia den Begriff CUDA als Abkürzung von «Compute Unified Device Architecture», mittlerweile wird es von Nvidia als Eigenname verwendet." ö.ä.
Interessant wäre diesbezüglich, ab/bis zu welchen Versionen Nvidia von "Compute Unified ..." sprach. Wenn das nur in Ver.1.0 und 1.1 so war, und ab Ver.1.2 dann nur noch "CUDA" auftaucht (und heute sind wir bei Version 5), dann macht es durchaus einen Unterschied gegenüber der Situation, als wenn bis Ver. 4.x noch "Compute Unified ..." angesagt war, und erst vor ein paar Monaten umgeschwenkt wurde.
Fakt: Auf der Nvidia/Cuda developer site ist praktisch nirgends mehr von "Compute Unified ..." die Rede, man muss schon sehr tief graben, und alte Dokumenten-Kopien von anderen Servern heranziehen, um "Compute Unified ..." belegen zu können.
>> Und afaik wird als WP-Lemma im Allgemeinen der aktuelle Name eines Objekts verwendet, und nicht jener, wie er vor x Versionen mal war, oder?
--arilou (Diskussion) 09:10, 19. Feb. 2013 (CET)Beantworten
Ok, also Erstens wollte ich nicht sagen, dass irgendein Wikipedianer blöd ist, oder sich das Akronym ausgedacht hat! Mir ist das mit CUDA eben aufgefallen als ich mich drüber informiert hab. Was haltet ihr davon wenn im ersten Absatz ein Hinweis dazu aufgeführt wird, dass es Ungereimtheiten bezüglich 'Compute Unified ...' gibt, der Ausdruck aber bestehen bleibt?
PS: Versuch das Video anhand seines Titels in Youtube zu finden. Der Vortragende äußert sich sehr eindeutig bezüglich CUDA als Akronym.
--Wese3112 (Diskussion) 10:54, 19. Feb. 2013 (CET)Beantworten
Natürlich hab ich google benutzt. Die Links auf Firmenseiten werden irgendwie ständig geändert. Als ATI von AMD übernommen wurde, musste man monatlich die links anpassen.^^ Nach dem der Redirekt "CUDA" von einem Löschberechtigten gelöscht wird, werde ich diesen Artikel dorthin verschieben. Den Einleitungstext passe ich entsprechend dem englischen Artikel an. "CUDA (formerly Compute Unified Device Architecture)" --Juri S. (Diskussion) 21:45, 19. Feb. 2013 (CET)Beantworten
Dieser Abschnitt kann archiviert werden. arilou (Diskussion) 08:57, 20. Feb. 2013 (CET)

Alternativen[Quelltext bearbeiten]

Unter Alternativen fehlt die Pragma gesteurte GPU Programmierung. Seit längerem gibt es hier die Programmierschnittstelle OpenACC [1] und seit kurzen finalisiert OpenMP 4.0 [2] [3]. OpenACC ist speziell für Nvidia GPUs von den Firmen Cray, CAPS, Nvidia und PGI geschrieben. OpenMP 4.0 ist um die Möglicheit Coprozessoren und GPUs zu benutzen erweitert worden. [1] http://en.wikipedia.org/wiki/OpenACC [2] http://openmp.org/wp/ [3] http://www.heise.de/developer/artikel/Die-wichtigsten-Neuerungen-von-OpenMP-4-0-1915844.html -- 87.163.213.70 16:29, 15. Aug. 2013 (CEST)Beantworten

OpenMP ist keine Alternative. Warum sollte im Artikel Fahrrad auf das Auto als Alternative hingewiesen werden? --Moritzgedig (Diskussion) 21:35, 7. Mai 2019 (CEST)Beantworten

Defekter Weblink[Quelltext bearbeiten]

GiftBot (Diskussion) 23:34, 29. Dez. 2015 (CET)Beantworten

FERMI nur bis cuda 8[Quelltext bearbeiten]

Siehe englisches Wikipedia von CUDA (nicht signierter Beitrag von 79.223.145.169 (Diskussion) 10:55, 20. Aug. 2018 (CEST))Beantworten

Cuda 10 verfügbar[Quelltext bearbeiten]

Siehe englische Seite (nicht signierter Beitrag von 2a02:810b:c53f:b9e8:8873:880f:7bd6:74d7 (Diskussion) 13:25, 23. Sep. 2018 (CEST))Beantworten

Grundlegende Konzepte fehlen[Quelltext bearbeiten]

Im Artikel tauchen die Begriffe: Warp, Thread, SPMD, SIMT nicht auf. Es wird nicht auf das zugrundeliegende Speichermodell eingegangen. --Moritzgedig (Diskussion) 21:45, 7. Mai 2019 (CEST)Beantworten

CUDA Version nicht aktuell[Quelltext bearbeiten]

Die aktuelle Version ist 11.1.1 Quelle: https://developer.nvidia.com/cuda-downloads (nicht signierter Beitrag von 2A02:8109:A0C0:1866:5CEE:86B3:D766:904D (Diskussion) 22:08, 24. Nov. 2020 (CET))Beantworten

Aktuell ist nun 11.3 siehe cuda Englisch (nicht signierter Beitrag von 2A02:810B:C940:4798:54AC:C72D:DEE1:8258 (Diskussion) 14:51, 19. Mai 2021 (CEST))Beantworten