Tjena!

Funderar ofta på om folk faktiskt använder AI. Det marknadsförs så otroligt mycket, då tänker jag att det måste finnas en marknad någonstans.

Samtidigt så är det ingen som pratar om AI verktyg, att dem använt det ena eller det andra.

Jag som jobbar inom IT tycker det är lite konstigt ändå att det är så pass lite prat om folk som personligen använder olika AI verktyg.

Jag vet att AI har använts i många år. Det jag menar specifikt är alla dessa nya AI verktyg som kommit ut på marknaden sedan de stora språkmodellerna blev mer tillgängliga.

  • ffhein@lemmy.world
    link
    fedilink
    arrow-up
    1
    ·
    4 months ago

    Kanske minns fel och blandar ihop termerna, men den sortens GPU passthrough jag tänkte på är att låta signalen från det bättre grafikkortet skickas genom APU:ns kontakt så man slipper ha dubbla monitorkablar. Men det är klart, ifall jag skulle kunna köra Windows i VM med 100% prestanda så skulle jag slippa dual boota för VR.

    Uppgraderade från 3080 så minimal skillnad bortsett från minnet :D Men vi får hoppas att AMD satsar mer på ROCm i framtiden, de har ju varit mer generösa med VRAM på sina kort.

    • ChonkaLoo
      link
      fedilink
      arrow-up
      2
      ·
      4 months ago

      Ok ja det kan va olika passthrough, är inte jättepåläst, det verkar rätt komplicerat. Tänkte nåt sånt här. Eller detta typ som man låter ett VM ta full kontroll över en USB-enhet men iom grafikkortet även ger bild så försvinner ju den från hosten ifall man skickar det till VMet så då måste ju något annat ta över. Verkar kräva två uppsättningar kablar kopplade till vardera GPU. Du pratar om en slags laptoplösning för en desktop?

      • ffhein@lemmy.world
        link
        fedilink
        arrow-up
        1
        ·
        4 months ago

        Exakt, men det var nog hybrid graphics det hette. Tanken var dels att lämna 100% vram ledigt för AI och dels för att spara ström genom att sätta Nvidia-kortet i sovläge när det inte används. Fick det typ att fungera, men de återstående problemen var att Xorg alltid körde på Nvidia-kortet (andra program default:ade till iGPUn, om jag inte explicit sa att de skulle köra på Nvidia) och jag kunde inte få något annat än 60Hz till skärmarna. Sen sa rocm-smi eller ngt liknande program att iGPU:n drog 30W när den användes, vilket är lika mkt som RTX-kortet drar i idle, så ifall det är korrekt så skulle det ändå inte bli någon strömbesparing.