Utviklingen av cloud computing

Servere er sannsynligvis ikke nær toppen av listen din for samtaleemner, og de er heller ikke noe de fleste tenker på. Men det viser seg at det er noen interessante endringer som skjer i serverdesign som vil begynne å få en reell verdenspåvirkning på alle som bruker både tradisjonelle og nye datamaskiner.

Alt fra smarte digitale assistenter til autonome biler til virtuell virkelighet blir aktivert og forbedret med tillegg av nye typer datamaskiner og nye typer databehandlingsacceleratorer til dagens servere og skybasert infrastruktur. Faktisk er dette en av hovedårsakene til at Intel nylig doblet seg på deres forpliktelse til server-, sky- og datasentermarkeder som en del av selskapets utviklende strategi.

Inntil nylig var nesten all databehandlingsarbeidet på servere - fra e-post og nettside levering til høy ytelsesberegning - gjort på CPUer, konseptuelt og arkitektonisk lik de som finnes i dagens PCer.

Tradisjonelle server-CPUer har gjort enorme forbedringer i ytelse de siste tiårene, takket delvis til fordelene med Moores lov. Faktisk, Intel kunngjorde en Xeon server CPU, E7 V4, som er optimalisert for analyse, med 24 uavhengige kjerner denne uken.

En rekke konkurrenter har anerkjent den voksende betydningen av skybaserte datamodeller, og har prøvd å jobbe seg inn i server-CPU-markedet, men til sist teller Intel fortsatt en svimlende 99% -andel. Qualcomm har annonsert noen ARM-baserte server-CPUer, og Cavium introduserte sin nye Thunder X2 ARM-baserte CPU i forrige ukes Computex-show i Taiwan, men begge selskapene møter oppoverbakkebattler. En potensielt mer interessant konkurransedyktig trussel kan komme fra AMD. Etter en flere års konkurransedyktig lull, forventes AMD å få en seriøs re-entry til server-CPU-markedet i høst da deres nye x86-kjerne, kodenavnet Zen, som de også forhåndsvises på Computex, forventes annonsert og integrert inn i nye server-CPUer.

Noen av de mer interessante utviklingen i serverdesign kommer fra tilsetningen av nye sjetonger som tjener som akseleratorer for bestemte typer arbeidsbelastninger. Mye som en GPU inne i en PC fungerer sammen med CPU og krefter visse typer programvare, nye chips blir lagt til tradisjonelle servere for å forbedre sine evner. Faktisk blir GPUer nå integrert i servere for applikasjoner som grafikkvirtualiseringer og kunstig intelligens. Den største støyen er opprettet av Nvidia med bruk av GPUer og GPU-baserte chips for programmer som dyp læring. Mens CPUer i hovedsak er optimalisert for å gjøre en ting veldig fort, er GPUer optimalisert for å gjøre mange relativt enkle ting samtidig.

Visuell-basert mønstermatching, som ligger i hjertet av mange kunstige intelligensalgoritmer, er for eksempel ideell for samtidige databehandlingskapasiteter for GPUer. Som et resultat har Nvidia tatt noen av sine GPU-arkitekturer og opprettet Tesla-serien av akseleratorkort for servere.

Selv om det ikke er så godt kjent, har Intel faktisk tilbudt en linje med parallellbehandling av optimaliserte sjetonger de kaller Intel Phi til markedet for supercomputing og high performance computing (HPC) i flere år. I motsetning til Tesla (og kommende tilbud som AMD sannsynligvis vil bringe til servere), er Intels Phi-chips ikke basert på GPUer, men en annen variant av sine egne X86-baserte design. Gitt det økende antallet parallelle prosessbaserte arbeidsbelastninger, ville det ikke være overraskende å se Intel bringe Phi's parallelle databehandlingskapasitet til det mer generelle formålstjenestemarkedet i fremtiden for maskinlæringsarbeidbelastninger.

I tillegg gjorde Intel nylig et høyt profilert kjøp av Altera, et selskap som spesialiserer seg på FPGAer (feltprogrammerbare gatearrayer). FPGAer er i hovedsak programmerbare chips som kan brukes til å utføre en rekke spesifikke funksjoner mer effektivt enn generelle CPUer og GPUer. Selv om kravene varierer avhengig av arbeidsbelastning, er FPGAs kjent for å være optimalisert for applikasjoner som signalbehandling og høyhastighets dataoverføring. Med tanke på de ekstreme ytelseskravene til dagens mest krevende sky-applikasjoner, er behovet for rask tilgang til lagrings- og nettverkselementer av skybaserte servere avgjørende, og FPGA kan også brukes til disse formålene.

Mange nyere serverbelastninger, for eksempel store dataanalysemotorer, krever også rask tilgang til store mengder data i minnet. Dette driver i sin tur interesse i nye typer minne-, lagrings- og til og med databehandlingsarkitekturer. Faktisk er disse problemene kjernen i HP Enterprise's The Machine-konsept for en fremtidsserver. På kort sikt vil minnearkitekturer som Micron og Intel-drevet 3D Xpoint-teknologi, som kombinerer fordelene med tradisjonell DRAM og flashminne, bidra til å drive nye nivåer av sanntidsytelse, selv med eksisterende serverdesign.

Dagens servere har kommet langt fra den PC-lignende, CPU-dominerte verdenen på bare noen få år tilbake.

Bunnlinjen er at dagens servere har kommet langt fra den PC-lignende, CPU-dominerte verdenen på bare noen få år tilbake. Som vi ser fremveksten av nye typer arbeidsbelastninger, vil vi sannsynligvis se enda flere chipakseleratorer som er optimalisert for å utføre visse oppgaver. Google, for eksempel, nylig annonsert en TPU, som er en chip de designet (mange mener det er en tilpasset versjon av en FPGA) spesielt for å øke ytelsen til deres TensorFlow dyp læring programvare. Andre halvlederproducenter jobber med ulike typer spesialiserte akseleratorer for applikasjoner som datasyn og mer.

I tillegg vil vi sannsynligvis se kombinasjoner av disse ulike elementene for å møte det brede spekteret av krav fremtidige servere vil møte. En av Intels Computex-kunngjøringer, for eksempel, var en ny server-CPU som integrerte de nyeste elementene i Xeon-linjen med FPGA-elementer fra Altera-oppkjøpet.

Selvfølgelig vil bare å kaste nye chips til en arbeidsbelastning ikke gjøre noe uten riktig programvare. Faktisk er en av de største utfordringene ved å introdusere nye chiparkitekturer, hvor mye arbeid det tar å skrive (eller omskriv) kode som spesielt kan utnytte de nye fordelene de forskjellige arkitekturene tilbyr. Dette er en av grunnene til at x86-baserte tradisjonelle CPUer fortsetter å dominere servermarkedet. Ser frem imot, men mange av de spennende nye skybaserte tjenestene må dramatisk skille deres innsats rundt et mer begrenset sett av programvare, noe som gjør den mulige muligheten for nye typer chip-akseleratorer til en overbevisende.

Dykking i detaljene i serverarkitekturer kan raskt bli overveldende. Å ha minst en grunnleggende forståelse av hvordan de fungerer kan imidlertid bidra til å gi deg en bedre følelse av hvordan dagens skybaserte applikasjoner blir levert, og kanskje gi et glimt inn i morgendagens applikasjoner og tjenester.

Bob O'Donnell er grunnlegger og sjefsanalytiker av TECHnalysis Research, LLC en teknologi rådgivning og markedsundersøkelser firma. Du kan følge ham på Twitter @bobodtech. Denne artikkelen ble opprinnelig publisert på Tech.pinions.

Legg igjen et svar

Dette nettstedet bruker Akismet for å redusere spam. Lær hvordan kommentaren din behandles.

GTranslate Your license is inactive or expired, please subscribe again!