Hallo,
ich weiß, dass diese Frage vielleicht nicht direkt hier rein passt, allerdings wüsste ich auch nicht, wo ich sie sonst hätte stellen sollen.
Nun ich werde bald an einem Wettbewerb teilnehmen und dafür arbeite ich mit Künstlicher Intelligenz. Nun ist es so, dass NVIDIA viele Deeplearning-Frameworks veröffentlicht haben, die man benutzten kann um unter anderem die Berechnungen auf der Grafikkarte laufen zu lassen.
Vielleicht ist es so, dass ich nicht die Librarys benutzen darf. Deswegen frage ich hier mal in die Runde, ob es möglich ist selber eine Anwendung zu schreiben, die mit CUDA interagiert und Berechnung mit einer GPU-Beschleunigung erledigen kann. Die Programmiersprache spricht in dem Falle keine Rolle. Ich möchte lediglich nur wissen ob es möglich ist und wenn ja, ob jemand mir dafür einen Anhaltspunkt geben kann oder eine Lösung dafür hat. Kann auch eine Simple Erklärung sein.
Ich hoffe, dass mir hier jemand weiter helfen kann.
Mit freundlichen Grüßen
Linus Schmidt
ich weiß, dass diese Frage vielleicht nicht direkt hier rein passt, allerdings wüsste ich auch nicht, wo ich sie sonst hätte stellen sollen.
Nun ich werde bald an einem Wettbewerb teilnehmen und dafür arbeite ich mit Künstlicher Intelligenz. Nun ist es so, dass NVIDIA viele Deeplearning-Frameworks veröffentlicht haben, die man benutzten kann um unter anderem die Berechnungen auf der Grafikkarte laufen zu lassen.
Vielleicht ist es so, dass ich nicht die Librarys benutzen darf. Deswegen frage ich hier mal in die Runde, ob es möglich ist selber eine Anwendung zu schreiben, die mit CUDA interagiert und Berechnung mit einer GPU-Beschleunigung erledigen kann. Die Programmiersprache spricht in dem Falle keine Rolle. Ich möchte lediglich nur wissen ob es möglich ist und wenn ja, ob jemand mir dafür einen Anhaltspunkt geben kann oder eine Lösung dafür hat. Kann auch eine Simple Erklärung sein.
Ich hoffe, dass mir hier jemand weiter helfen kann.
Mit freundlichen Grüßen
Linus Schmidt