CUDA
-
- Nový používateľ
- Príspevky: 74
- Dátum registrácie: St 27. Jún, 2007, 08:00
- Bydlisko: Nová Dubnica
tiez pochybujem. islo mi o to ci s tym ma niekto skusenosti a ci je vypoctovy vykon na GPU podobny vykonu na CPU, pripadne lepsi alebo horsi a teda ci ma zmysel sa do toho pustat.
MB: ASUS P5K Premium/WiFi-AP, CPU: E8400@3,6GHz (9x400MHz) 1,250 VCore, RAM: DDR2 2*2*2GB A-DATA Vitesta Extreme Edition 800MHz, 4-4-4-12, 2,0 VRAM , VGA: Gainward GTX260, HDD: WD 320GB AAKS - OS, 2xWD 640GB AAKS - Data OS:Ubuntu 10.10 64bit/ArchLinux 64bit BOINC
zalezi co v nej chces programovat, podla toho ... preto tak skoro nevystriedaju GPUs - CPUs
aritmeticky vykon G80 je ale celkovo az ~ 10x vacsi ako high end CPUs
dobry clanok ohlade CUDA je tu: link
aritmeticky vykon G80 je ale celkovo az ~ 10x vacsi ako high end CPUs
dobry clanok ohlade CUDA je tu: link
s pozdravom, crux.
-
- Nový používateľ
- Príspevky: 74
- Dátum registrácie: St 27. Jún, 2007, 08:00
- Bydlisko: Nová Dubnica
v podstate by islo hlavne o matematicke operacie, napr. numericke integrovanie a pod.
trochu ma zaujima teória cisel a momentalne pracujem na kniznici pre pracu s velkymi cislami a podla mojich odhadov by bola praca s danou kniznicou na CPU dost pomala (hlavne nasobenie a delenie, nieto umocnovanie a odmocnovanie pri velkych cislach - tak 10e+100). niesom momentalne schopny vytvorit vykonne algoritmy ktore by skratili cas na praci s tymito cislami na CPU a preto by som chcel vediet ako by to slo na GPU, aby som si to mohol prakticky vyskusat.
trochu ma zaujima teória cisel a momentalne pracujem na kniznici pre pracu s velkymi cislami a podla mojich odhadov by bola praca s danou kniznicou na CPU dost pomala (hlavne nasobenie a delenie, nieto umocnovanie a odmocnovanie pri velkych cislach - tak 10e+100). niesom momentalne schopny vytvorit vykonne algoritmy ktore by skratili cas na praci s tymito cislami na CPU a preto by som chcel vediet ako by to slo na GPU, aby som si to mohol prakticky vyskusat.
MB: ASUS P5K Premium/WiFi-AP, CPU: E8400@3,6GHz (9x400MHz) 1,250 VCore, RAM: DDR2 2*2*2GB A-DATA Vitesta Extreme Edition 800MHz, 4-4-4-12, 2,0 VRAM , VGA: Gainward GTX260, HDD: WD 320GB AAKS - OS, 2xWD 640GB AAKS - Data OS:Ubuntu 10.10 64bit/ArchLinux 64bit BOINC
-
- Nový používateľ
- Príspevky: 74
- Dátum registrácie: St 27. Jún, 2007, 08:00
- Bydlisko: Nová Dubnica
pomaly sa s tym zacnem hrat a uvidim ako mi to pojde.
MB: ASUS P5K Premium/WiFi-AP, CPU: E8400@3,6GHz (9x400MHz) 1,250 VCore, RAM: DDR2 2*2*2GB A-DATA Vitesta Extreme Edition 800MHz, 4-4-4-12, 2,0 VRAM , VGA: Gainward GTX260, HDD: WD 320GB AAKS - OS, 2xWD 640GB AAKS - Data OS:Ubuntu 10.10 64bit/ArchLinux 64bit BOINC
nVidia vydala teraz CUDA Toolkit 1.0, takze staci ovladat "C" pre programovanie GPGPU aplikacii
s pozdravom, crux.
preco nerobis napr. operaciu nasobenia podla divide & conquer?
resp. preco vyuzivat "jednoduche" algoritmy, namiesto takych, co by ti pridali programu na strane efektivity?
napr. existuju metody na nasobenie n bitovych cisel, kde ti staci nasobit 4 krat n/2 bitove cisla (resp. ked aj to je velke, rozdelit rekurziou). a to je len jedna z metod. cize podla mna by bolo jednoduchsie si to nastudovat (co sa tyka zefektivnenia programov). popripade vyhladat neakych matematikov - teoretickych informatikov.
resp. preco vyuzivat "jednoduche" algoritmy, namiesto takych, co by ti pridali programu na strane efektivity?
napr. existuju metody na nasobenie n bitovych cisel, kde ti staci nasobit 4 krat n/2 bitove cisla (resp. ked aj to je velke, rozdelit rekurziou). a to je len jedna z metod. cize podla mna by bolo jednoduchsie si to nastudovat (co sa tyka zefektivnenia programov). popripade vyhladat neakych matematikov - teoretickych informatikov.
-
- Nový používateľ
- Príspevky: 74
- Dátum registrácie: St 27. Jún, 2007, 08:00
- Bydlisko: Nová Dubnica
co sa tyka toho "divide & conquer", neviem si to dost dobre efektivne predstavit pri nasobeni, dalo by sa to aplikovat na opakovane scitavanie (to bol aj moj povodny zamer), ale tam by bol prave problem s narocnostou na vypoctovy vykon a tak som to urobil tak ako nas to ucily na zakladnej skole (dve cisla pod seba a nasobit prve cislo kazdou cifrou z druheho a posuvat o jedno miesto dolava a nakoniec scitat), tym sa to rapidne okresalo z narocnosti vypoctu (vykona sa len par cyklov - kolko cifier tolko cyklov), kDezto v tom prvom by bolo tolko cyklov aka by bola hodnota cisla.
teraz rozmyslam nad delenim, ako to zefektivnit.
PS: to moje jedno cislo je definovane ako pole celych cisel (0-9)
teraz rozmyslam nad delenim, ako to zefektivnit.
PS: to moje jedno cislo je definovane ako pole celych cisel (0-9)
MB: ASUS P5K Premium/WiFi-AP, CPU: E8400@3,6GHz (9x400MHz) 1,250 VCore, RAM: DDR2 2*2*2GB A-DATA Vitesta Extreme Edition 800MHz, 4-4-4-12, 2,0 VRAM , VGA: Gainward GTX260, HDD: WD 320GB AAKS - OS, 2xWD 640GB AAKS - Data OS:Ubuntu 10.10 64bit/ArchLinux 64bit BOINC
nooo, ja som mal skor na mysli nieco ako fourierova transformacia.=;
tu najdes neaku teoriu okolo toho.
k tomu deleniu: cisla by si mohol mat aj v binarnej forme, napriklad v retazci napr. podla formatu IEEE 754. potom delenie by sa zjednodusilo (aspon si myslim).
algoritmus (efektivneho) delenia sa tiez da najst na nete dost, napriklad tu .
btw: sorry ze uz idem do offtopic. asi na tuto diskusiu by sa viac hodila nova tema.
tu najdes neaku teoriu okolo toho.
k tomu deleniu: cisla by si mohol mat aj v binarnej forme, napriklad v retazci napr. podla formatu IEEE 754. potom delenie by sa zjednodusilo (aspon si myslim).
algoritmus (efektivneho) delenia sa tiez da najst na nete dost, napriklad tu .
btw: sorry ze uz idem do offtopic. asi na tuto diskusiu by sa viac hodila nova tema.