Thứ Hai, 10 tháng 5, 2021

The Algorithm Auction, Algorithm BSTW, Adaptive Huffman coding

Algoritmeauktion:

Algoritmeauktionen er verdens første auktion over computeralgoritmer. Oprettet af Ruse Laboratories indeholdt den første auktion syv partier og blev afholdt på Cooper Hewitt, Smithsonian Design Museum den 27. marts 2015.

Algoritme BSTW:

Algoritmen BSTW er en datakomprimeringsalgoritme, opkaldt efter dens designere, Bentley, Sleator, Tarjan og Wei i 1986. BSTW er en ordbogsbaseret algoritme, der bruger en flyt-til-front-transformation for at holde nyligt sete ordbogsindgange foran på ordbogen. Ordbogsreferencer kodes derefter ved hjælp af en hvilken som helst af et antal kodningsmetoder, normalt Elias delta-kodning eller Elias gamma-kodning.

Adaptiv Huffman-kodning:

Adaptiv Huffman-kodning er en adaptiv kodningsteknik baseret på Huffman-kodning. Det tillader opbygning af koden, da symbolerne transmitteres, uden indledende kendskab til kildedistribution, der muliggør kodning og tilpasning til enpasning til skiftende data i data.

Algoritme marts:

Algoritmens marts er en dansestil oprettet i Japan, baseret på børnenes tv-serie PythagoraSwitch, der blev sendt på uddannelseskanalen i NHK, en japansk nonprofit offentlig radiotjeneste. Det udføres af komediegruppen Itsumo Kokokara med variable grupper som brandmænd, fodboldspillere, Yasugi-bushi bevaringsselskab, Wien Drengekor, Blue Man Group, ninja og så videre.

Fisher – Yates blanding:

Fisher – Yates-blandingen er en algoritme til generering af en tilfældig permutation af en endelig sekvens - i klare ord blandes algoritmen sekvensen. Algoritmen sætter effektivt alle elementerne i en hat; det bestemmer løbende det næste element ved tilfældigt at trække et element fra hatten, indtil der ikke er nogen elementer tilbage. Algoritmen producerer en upartisk permutation: enhver permutation er lige sandsynlig. Den moderne version af algoritmen er effektiv: det tager tid, der er proportional med antallet af emner, der blandes og blandes på plads.

Valg af algoritme:

Algoritmevalg er en meta-algoritmisk teknik til at vælge en algoritme fra en portefølje på en instans-for-instans-basis. Det motiveres af observationen, at algoritmer har mange forskellige præstationer på mange praktiske problemer. Det vil sige, at mens en algoritme klarer sig godt i nogle tilfælde, fungerer den dårligt på andre og omvendt for en anden algoritme. Hvis vi kan identificere, hvornår vi skal bruge hvilken algoritme, kan vi få det bedste ud af begge verdener og forbedre den samlede præstation. Dette er hvad algoritmevalg sigter mod at gøre. Den eneste forudsætning for anvendelse af algoritmevalgteknikker er, at der findes et sæt komplementære algoritmer.

Adaptiv Huffman-kodning:

Adaptiv Huffman-kodning er en adaptiv kodningsteknik baseret på Huffman-kodning. Det tillader opbygning af koden, da symbolerne transmitteres, uden indledende kendskab til kildedistribution, der muliggør kodning og tilpasning til enpasning til skiftende data i data.

Hindley – Milner type system:

Et Hindley-Milner ( HM ) system er et klassisk system til lambda-calculus med parametrisk polymorfisme. Det er også kendt som Damas – Milner eller Damas – Hindley – Milner . Det blev først beskrevet af J. Roger Hindley og senere genopdaget af Robin Milner. Luis Damas bidrog med en tæt formel analyse og bevis for metoden i sin ph.d.-afhandling.

Knuths algoritme X:

Algoritme X er en algoritme til løsning af det nøjagtige dækningsproblem. Det er en ligefrem rekursiv, ikke-deterministisk, dybdeførste, backtracking-algoritme, der bruges af Donald Knuth til at demonstrere en effektiv implementering kaldet DLX, som bruger danselinks-teknikken.

Multi-label klassificering:

I maskinindlæring er klassificering af flere etiketter og det stærkt relaterede problem med klassificering af flere output varianter af klassificeringsproblemet, hvor flere etiketter kan tildeles til hver forekomst. Multi-label-klassifikation er en generalisering af multiclass-klassificering, hvilket er det enkelt-label-problem ved at kategorisere forekomster i nøjagtigt en af ​​mere end to klasser; i multimærkeproblemet er der ingen begrænsning for, hvor mange af klasser forekomsten kan tildeles.

Analyse af algoritmer:

I datalogi er analysen af ​​algoritmer processen med at finde algoritmernes beregningskompleksitet - den tid, lagring eller andre ressourcer, der er nødvendige for at udføre dem. Normalt involverer dette bestemmelse af en funktion, der relaterer længden af ​​en algoritmes input til antallet af trin, det tager, eller antallet af lagerplaceringer, den bruger. En algoritme siges at være effektiv, når denne funktions værdier er små eller vokser langsomt sammenlignet med en vækst i inputstørrelsen. Forskellige input af samme længde kan få algoritmen til at have forskellig opførsel, så bedste, værste og gennemsnitlige beskrivelser kan alle være af praktisk interesse. Når ikke andet er angivet, er funktionen, der beskriver udførelsen af ​​en algoritme, normalt en øvre grænse, bestemt ud fra de værste tilfælde input til algoritmen.

Algoritmisk kunst:

Algoritmisk kunst eller algoritmekunst er kunst, for det meste billedkunst, hvor designet genereres af en algoritme. Algoritmiske kunstnere kaldes undertiden algorister .

Algoritme karakteriseringer:

Algoritmekarakteriseringer er forsøg på at formalisere ordet algoritme. Algoritme har ikke en generelt accepteret formel definition. Forskere arbejder aktivt på dette problem. Denne artikel vil præsentere nogle af "karakteriseringerne" af begrebet "algoritme" mere detaljeret.

Algoritme:

I matematik og datalogi er en algoritme en endelig sekvens af veldefinerede, computerimplementerede instruktioner, typisk for at løse en klasse af problemer eller for at udføre en beregning. Algoritmer er altid entydige og bruges som specifikationer til udførelse af beregninger, databehandling, automatiseret ræsonnement og andre opgaver.

Algoritme:

I matematik og datalogi er en algoritme en endelig sekvens af veldefinerede, computerimplementerede instruktioner, typisk for at løse en klasse af problemer eller for at udføre en beregning. Algoritmer er altid entydige og bruges som specifikationer til udførelse af beregninger, databehandling, automatiseret ræsonnement og andre opgaver.

Algoritmisk paradigme:

Et algoritmisk paradigme eller algoritmedesignparadigme er en generisk model eller ramme, der ligger til grund for designet af en klasse algoritmer. Et algoritmisk paradigme er en abstraktion, der er højere end forestillingen om en algoritme, ligesom en algoritme er en abstraktion, der er højere end et computerprogram.

Algoritmisk effektivitet:

I datalogi er algoritmisk effektivitet en egenskab ved en algoritme, der relaterer til mængden af ​​beregningsressourcer, der bruges af algoritmen. En algoritme skal analyseres for at bestemme dens ressourceforbrug, og effektiviteten af ​​en algoritme kan måles baseret på brugen af ​​forskellige ressourcer. Algoritmisk effektivitet kan betragtes som analog med teknisk produktivitet for en gentagende eller kontinuerlig proces.

Algoritme engineering:

Algoritmeteknik fokuserer på design, analyse, implementering, optimering, profilering og eksperimentel evaluering af computeralgoritmer, der bygger bro over kløften mellem algoritmeteori og praktiske anvendelser af algoritmer i softwareteknik. Det er en generel metode til algoritmisk forskning.

Matrixmultiplikationsalgoritme:

Fordi matrixmultiplikation er sådan en central operation i mange numeriske algoritmer, er der blevet investeret meget arbejde i at gøre matrixmultiplikationsalgoritmer effektive. Anvendelser af matrixmultiplikation i beregningsproblemer findes i mange områder, herunder videnskabelig computing og mønstergenkendelse og i tilsyneladende ikke-relaterede problemer såsom at tælle stierne gennem en graf. Mange forskellige algoritmer er designet til at multiplicere matricer på forskellige typer hardware, herunder parallelle og distribuerede systemer, hvor beregningsarbejdet er spredt over flere processorer.

Subrutine:

I computerprogrammering er en subrutine en sekvens af programinstruktioner, der udfører en bestemt opgave, pakket som en enhed. Denne enhed kan derefter bruges i programmer, hvor den pågældende opgave skal udføres.

Algoritme marts:

Algoritmens marts er en dansestil oprettet i Japan, baseret på børnenes tv-serie PythagoraSwitch, der blev sendt på uddannelseskanalen i NHK, en japansk nonprofit offentlig radiotjeneste. Det udføres af komediegruppen Itsumo Kokokara med variable grupper som brandmænd, fodboldspillere, Yasugi-bushi bevaringsselskab, Wien Drengekor, Blue Man Group, ninja og så videre.

TRIZ:

TRIZ er "et værktøj til problemløsning, analyse og prognoser afledt af undersøgelsen af ​​opfindelsesmønstre i den globale patentlitteratur". Det blev udviklet af den sovjetiske opfinder og science-fiction forfatter Genrich Altshuller (1926-1998) og hans kolleger, begyndende i 1946. På engelsk gengives navnet typisk som " teorien om opfindsom problemløsning " og går lejlighedsvis af engelsk akronym TIPS .

TRIZ:

TRIZ er "et værktøj til problemløsning, analyse og prognoser afledt af undersøgelsen af ​​opfindelsesmønstre i den globale patentlitteratur". Det blev udviklet af den sovjetiske opfinder og science-fiction forfatter Genrich Altshuller (1926-1998) og hans kolleger, begyndende i 1946. På engelsk gengives navnet typisk som " teorien om opfindsom problemløsning " og går lejlighedsvis af engelsk akronym TIPS .

TRIZ:

TRIZ er "et værktøj til problemløsning, analyse og prognoser afledt af undersøgelsen af ​​opfindelsesmønstre i den globale patentlitteratur". Det blev udviklet af den sovjetiske opfinder og science-fiction forfatter Genrich Altshuller (1926-1998) og hans kolleger, begyndende i 1946. På engelsk gengives navnet typisk som " teorien om opfindsom problemløsning " og går lejlighedsvis af engelsk akronym TIPS .

Algoritme:

I matematik og datalogi er en algoritme en endelig sekvens af veldefinerede, computerimplementerede instruktioner, typisk for at løse en klasse af problemer eller for at udføre en beregning. Algoritmer er altid entydige og bruges som specifikationer til udførelse af beregninger, databehandling, automatiseret ræsonnement og andre opgaver.

Valg af algoritme:

Algoritmevalg er en meta-algoritmisk teknik til at vælge en algoritme fra en portefølje på en instans-for-instans-basis. Det motiveres af observationen, at algoritmer har mange forskellige præstationer på mange praktiske problemer. Det vil sige, at mens en algoritme klarer sig godt i nogle tilfælde, fungerer den dårligt på andre og omvendt for en anden algoritme. Hvis vi kan identificere, hvornår vi skal bruge hvilken algoritme, kan vi få det bedste ud af begge verdener og forbedre den samlede præstation. Dette er hvad algoritmevalg sigter mod at gøre. Den eneste forudsætning for anvendelse af algoritmevalgteknikker er, at der findes et sæt komplementære algoritmer.

Algoritmisk gennemsigtighed:

Algoritmisk gennemsigtighed er princippet om, at de faktorer, der påvirker de beslutninger, der træffes af algoritmer, skal være synlige eller gennemsigtige for de mennesker, der bruger, regulerer og påvirkes af systemer, der anvender disse algoritmer. Selvom sætningen blev opfundet i 2016 af Nicholas Diakopoulos og Michael Koliska om algoritmernes rolle i beslutningen om indholdet af digitale journalistiktjenester, går det bagvedliggende princip tilbage til 1970'erne og fremkomsten af ​​automatiserede systemer til at score forbrugerkredit.

Stationær wavelet-transformation:


Den stationære wavelet-transformation (SWT) er en algoritme for wavelet-transformation designet til at overvinde manglen på translation-invarians af den diskrete wavelet-transformation (DWT). Oversættelse-invarians opnås ved at fjerne downsamplers og upsamplers i DWT og upsampling af filterkoefficienterne med en faktor på i algoritmens niveau. SWT er et iboende redundant skema, da output for hvert niveau af SWT indeholder det samme antal prøver som input - så for en nedbrydning af N-niveauer er der en redundans af N i wavelet-koefficienterne. Denne algoritme er mere kendt som " algoritme à trous " på fransk, hvilket refererer til indsættelse af nuller i filtrene. Det blev introduceret af Holschneider et al.

Algoritmisk:

Algoritmisk kan henvise til:

  • Algoritme, trinvise instruktioner til en beregning
    • Algoritmisk kunst, kunst lavet af en algoritme
    • Algoritmisk komposition, musik lavet af en algoritme
    • Algoritmisk handel, handelsbeslutninger truffet af en algoritme
    • Algoritmisk patent, en intellektuel ejendomsret i en algoritme
  • Algoritmik, videnskaben om algoritmer
    • Algorithmica , et akademisk tidsskrift til algoritmeforskning
    • Algoritmisk effektivitet, beregningsressourcerne, der bruges af en algoritme
    • Algoritmisk informationsteori, undersøgelse af sammenhængen mellem beregning og information
    • Algoritmisk mekanismedesign, design af økonomiske systemer ud fra et algoritmisk synspunkt
    • Algoritmisk talteori, algoritmer til talteoretisk beregning
    • Algoritmisk spilteori, spilteoretiske teknikker til algoritmedesign og -analyse
  • Algoritmisk afkøling, et fænomen i kvanteberegning
  • Algoritmisk sandsynlighed, et universelt valg af tidligere sandsynligheder i Solomonoffs teori om induktiv inferens
Algoritmisk:

Algoritmisk kan henvise til:

  • Algoritme, trinvise instruktioner til en beregning
    • Algoritmisk kunst, kunst lavet af en algoritme
    • Algoritmisk komposition, musik lavet af en algoritme
    • Algoritmisk handel, handelsbeslutninger truffet af en algoritme
    • Algoritmisk patent, en intellektuel ejendomsret i en algoritme
  • Algoritmik, videnskaben om algoritmer
    • Algorithmica , et akademisk tidsskrift til algoritmeforskning
    • Algoritmisk effektivitet, beregningsressourcerne, der bruges af en algoritme
    • Algoritmisk informationsteori, undersøgelse af sammenhængen mellem beregning og information
    • Algoritmisk mekanismedesign, design af økonomiske systemer ud fra et algoritmisk synspunkt
    • Algoritmisk talteori, algoritmer til talteoretisk beregning
    • Algoritmisk spilteori, spilteoretiske teknikker til algoritmedesign og -analyse
  • Algoritmisk afkøling, et fænomen i kvanteberegning
  • Algoritmisk sandsynlighed, et universelt valg af tidligere sandsynligheder i Solomonoffs teori om induktiv inferens
Algoritmisk kunst:

Algoritmisk kunst eller algoritmekunst er kunst, for det meste billedkunst, hvor designet genereres af en algoritme. Algoritmiske kunstnere kaldes undertiden algorister .

Computergenereret koreografi:

Computergenereret koreografi er teknikken til at bruge algoritmer til at skabe dans. Det beskrives almindeligvis som at bruge computere til koreografi af dans, skabe computeranimationer, studere eller undervise aspekter af menneskelig bevægelse, illustrere dansebevægelser eller hjælpe med at notere dans. Det kan også anvendes i form af koreografisk software til stimulering, der muliggør realtids koreografi og generativ dans eller simulering med virtuelle dansere inden for danseteknologi. Historisk set kan computere og dans spores tilbage til 1960'erne, for eksempel skrev Michael Noll en artikel om sit arbejde med titlen "Koreografi og computere", offentliggjort i Dance Magazine i 1967.

Algoritmisk kombinatorik på delvise ord:

Algorithmic Combinatorics on Partial Words er en bog inden for kombinatorik om ord og mere specifikt om delord. Det blev skrevet af Francine Blanchet-Sadri og udgivet i 2008 af Chapman & Hall / CRC i deres Discrete Mathematics og dets serie med applikationsbøger.

Algoritmisk spilteori:

Algoritmisk spilteori (AGT) er et område i skæringspunktet mellem spilteori og datalogi med det formål at forstå og designe algoritmer i strategiske miljøer.

Algoritmisk geometri:

Algoritmisk geometri er en lærebog om beregningsgeometri. Det blev oprindeligt skrevet på fransk af Jean-Daniel Boissonnat og Mariette Yvinec og udgivet som Géometrie algoritmik af Edusciences i 1995. Det blev oversat til engelsk af Hervé Brönnimann med forbedringer af nogle bevis og yderligere øvelser og udgivet af Cambridge University Press i 1998.

Kunstig intelligens til it-drift:

Kunstig intelligens til it-operationer ( AIOps ) er et begreb, der blev opfundet af Gartner i 2016 som en industrikategori til maskinlæringsteknologi, der forbedrer it-driftsanalyser. AIOps er akronymet af "Algorithmic IT Operations". Sådanne driftsopgaver inkluderer blandt andet automatisering, performanceovervågning og hændelseskorrelationer.

Handelsstrategiindeks:

Strategiindekser er indekser, der sporer udførelsen af ​​en algoritmisk handelsstrategi. Algoritmen specificerer klart og gennemsigtigt alle de handlinger, der skal udføres. Følgende er eksempler på algoritmer, som strategier kan være baseret på.

  1. Par handelsstrategi . Denne strategi undersøger par af instrumenter, der vides at være statistisk korreleret. Overvej f.eks. Shell og Exxon. Begge er olielagre og vil sandsynligvis bevæge sig sammen. Kendskab til denne tendens skaber mulighed for fortjeneste, da de erhvervsdrivende ved de lejligheder, hvor disse aktier bryder sammenhæng et øjeblik, muligvis køber den ene og sælger den anden til en præmie.
  2. Fed-fondens kurvestrategi Denne strategi ser på kurvens form baseret på Fed's handlinger. I denne strategi sætter man sig på en stejlere eller fladere, baseret på om Federal Reserve har sænket benchmarkrenten eller hævet den. Dette er baseret på den konventionelle visdom, at kurven øges, når hastigheden forventes at blive skåret, og omvendt.
  3. Implicit volatilitet mod realiseret volatilitet . På et antal markeder som råvarer og renter er den implicitte volatilitet, som antydet af straddle-priser, højere end den realiserede volatilitet for den underliggende forward. En måde at 'udnytte' dette på er at sælge en kort udløbsstraddle og delta-afdækning, indtil den er i live. Strategien tjener penge, hvis summen af ​​den modtagne præmie, den (negative) endelige værdi af straddle og den (positive / negative) værdi af fremad er større end nul. En variation af denne og mere almindelige løsning i egenkapitalen er at sælge enten en måneds eller tre måneders varianswap - normalt på Eurostoxx 50E- eller S & P500-indekset - der betaler et positivt resultat, hvis den implicitte volatilitet er over den realiserede volatilitet ved udløb i dette tilfælde er der ikke behov for at delta-afdække de underliggende bevægelser.
Handelsstrategiindeks:

Strategiindekser er indekser, der sporer udførelsen af ​​en algoritmisk handelsstrategi. Algoritmen specificerer klart og gennemsigtigt alle de handlinger, der skal udføres. Følgende er eksempler på algoritmer, som strategier kan være baseret på.

  1. Par handelsstrategi . Denne strategi undersøger par af instrumenter, der vides at være statistisk korreleret. Overvej f.eks. Shell og Exxon. Begge er olielagre og vil sandsynligvis bevæge sig sammen. Kendskab til denne tendens skaber mulighed for fortjeneste, da de erhvervsdrivende ved de lejligheder, hvor disse aktier bryder sammenhæng et øjeblik, muligvis køber den ene og sælger den anden til en præmie.
  2. Fed-fondens kurvestrategi Denne strategi ser på kurvens form baseret på Fed's handlinger. I denne strategi sætter man sig på en stejlere eller fladere, baseret på om Federal Reserve har sænket benchmarkrenten eller hævet den. Dette er baseret på den konventionelle visdom, at kurven øges, når hastigheden forventes at blive skåret, og omvendt.
  3. Implicit volatilitet mod realiseret volatilitet . På et antal markeder som råvarer og renter er den implicitte volatilitet, som antydet af straddle-priser, højere end den realiserede volatilitet for den underliggende forward. En måde at 'udnytte' dette på er at sælge en kort udløbsstraddle og delta-afdækning, indtil den er i live. Strategien tjener penge, hvis summen af ​​den modtagne præmie, den (negative) endelige værdi af straddle og den (positive / negative) værdi af fremad er større end nul. En variation af denne og mere almindelige løsning i egenkapitalen er at sælge enten en måneds eller tre måneders varianswap - normalt på Eurostoxx 50E- eller S & P500-indekset - der betaler et positivt resultat, hvis den implicitte volatilitet er over den realiserede volatilitet ved udløb i dette tilfælde er der ikke behov for at delta-afdække de underliggende bevægelser.
Algoritmisk slutning:

Algoritmisk inferens samler nye udviklinger i de statistiske inferensmetoder, der er mulige med de stærke computerenheder, der er bredt tilgængelige for enhver dataanalytiker. Hjørnesten i dette felt er beregningslæringsteori, granulær computing, bioinformatik og for længe siden strukturel sandsynlighed. Hovedfokus er på algoritmerne, der beregner statistikker, der forankrer studiet af et tilfældigt fænomen sammen med mængden af ​​data, de skal fodre på for at producere pålidelige resultater. Dette skifter matematikernes interesse fra studiet af distributionslovene til statistikens funktionelle egenskaber og computerforskernes interesse fra algoritmerne for behandling af data til den information, de behandler.

Algoritmisk informationsteori:

Algoritmisk informationsteori (AIT) er en gren af ​​teoretisk datalogi, der vedrører forholdet mellem beregning og information om beregningsgenererede objekter, såsom strenge eller enhver anden datastruktur. Med andre ord er det vist inden for algoritmisk informationsteori, at beregningsmæssig inkompressibilitet "efterligner" de relationer eller uligheder, der findes i informationsteorien. Ifølge Gregory Chaitin er det "resultatet af at sætte Shannons informationsteori og Turings beregningsteori i en cocktailryster og ryste kraftigt."

Algoritmisk Justice League:

Algorithmic Justice League (AJL) er en digital advokatorganisation med base i Cambridge, Massachusetts. AJL blev grundlagt af computerforsker Joy Buolamwini i 2016 og sigter mod at øge bevidstheden om de sociale implikationer af kunstig intelligens gennem kunst og forskning. Det blev præsenteret i 2020-dokumentaren Coded Bias.

ALGOL:

ALGOL er en familie af tvingende computerprogrammeringssprog, der oprindeligt blev udviklet i 1958. ALGOL påvirkede stærkt mange andre sprog og var standardmetoden til algoritmebeskrivelse brugt af Association for Computing Machinery (ACM) i lærebøger og akademiske kilder i mere end tredive år.

ALGOL 60:

ALGOL 60 er medlem af ALGOL-familien af ​​computerprogrammeringssprog. Det fulgte efter ALGOL 58, der havde indført kode blokke og begin og end par til afgrænsning dem, der repræsenterer en vigtig fremgang i anledning af struktureret programmering. ALGOL 60 var det første sprog, der implementerede indlejrede funktionsdefinitioner med leksikalt omfang. Det gav anledning til mange andre programmeringssprog, herunder CPL, Simula, BCPL, B, Pascal og C. Praktisk set hver computer i tiden havde et systemsprogrammeringssprog baseret på ALGOL 60-koncepter.

ALGOL 68:

ALGOL 68 er et bydende programmeringssprog, der blev opfattet som en efterfølger til ALGOL 60 programmeringssprog, designet med det formål at få et meget bredere anvendelsesområde og mere strengt defineret syntaks og semantik.

Algoritmisk Lovász lokalt lemma:

I teoretisk datalogi giver det algoritmiske Lovász lokale lemma en algoritmisk måde at konstruere objekter, der adlyder et system med begrænsninger med begrænset afhængighed.

Algoritmisk Lovász lokalt lemma:

I teoretisk datalogi giver det algoritmiske Lovász lokale lemma en algoritmisk måde at konstruere objekter, der adlyder et system med begrænsninger med begrænset afhængighed.

Algoritmisk Lovász lokalt lemma:

I teoretisk datalogi giver det algoritmiske Lovász lokale lemma en algoritmisk måde at konstruere objekter, der adlyder et system med begrænsninger med begrænset afhængighed.

Algoritmisk mekanismedesign:

Algoritmisk mekanismedesign ( AMD ) ligger ved skæringspunktet mellem økonomisk spilteori, optimering og datalogi. Det prototypiske problem i mekanismedesign er at designe et system til flere egeninteresserede deltagere, således at deltagernes egeninteresserede handlinger i ligevægt fører til god systemydelse. Typiske undersøgte mål inkluderer indtægtsmaksimering og social velfærdsmaksimering. Algoritmisk mekanismedesign adskiller sig fra klassisk økonomisk mekanismedesign i flere henseender. Det anvender typisk de analytiske værktøjer inden for teoretisk datalogi, såsom worst case-analyse og tilnærmelsesforhold, i modsætning til klassisk mekanismedesign i økonomi, som ofte gør distributionsantagelser om agenterne. Det anser også beregningsmæssige begrænsninger for at være af central betydning: mekanismer, der ikke effektivt kan implementeres i polynomisk tid, anses ikke for at være levedygtige løsninger på et mekanismedesignproblem. Dette udelukker f.eks. Ofte den klassiske økonomiske mekanisme, auktionen Vickrey – Clarke – Groves.

Algoritmisk talteori-symposium:

Algorithmic Number Theory Symposium (ANTS) er en toårig akademisk konference, der først blev afholdt i Cornell i 1994 og udgjorde et internationalt forum til præsentation af ny forskning inden for beregningstalteori. De er afsat til algoritmiske aspekter af talteori, herunder elementær talteori, algebraisk talteori, analytisk talteori, talgeometri, aritmetisk geometri, endelige felter og kryptografi.

Algoritmiske gåder:

Algorithmic Puzzles er en bog med puslespil baseret på beregningstænkning. Det blev skrevet af dataloger Anany og Maria Levitin og udgivet i 2011 af Oxford University Press.

Algoritmisk regulering:

Algoritmisk regulering kan henvise til:

  • Regering efter algoritme, brug af algoritmer i regeringen
  • Regulering af algoritmer, regler og love for algoritmer
Algoritmisk skelet:

I databehandling er algoritmiske skeletter eller parallelismemønstre en parallel parallel programmeringsmodel på højt niveau til parallel og distribueret databehandling.

Algoritmisk tilstandsmaskine:

Den algoritmiske tilstandsmaskine ( ASM ) -metode er en metode til at designe endelige statsmaskiner (FSM'er), der oprindeligt blev udviklet af Thomas E. Osborne ved University of California, Berkeley (UCB) siden 1960, introduceret til og implementeret på Hewlett-Packard i 1968, formaliseret og udvidet siden 1967 og skrevet af Christopher R. Clare siden 1970. Det bruges til at repræsentere diagrammer over digitale integrerede kredsløb. ASM-diagrammet er som et tilstandsdiagram, men mere struktureret og dermed lettere at forstå. Et ASM-diagram er en metode til at beskrive de sekventielle operationer i et digitalt system.

Algoritmisk tilstandsmaskine:

Den algoritmiske tilstandsmaskine ( ASM ) -metode er en metode til at designe endelige statsmaskiner (FSM'er), der oprindeligt blev udviklet af Thomas E. Osborne ved University of California, Berkeley (UCB) siden 1960, introduceret til og implementeret på Hewlett-Packard i 1968, formaliseret og udvidet siden 1967 og skrevet af Christopher R. Clare siden 1970. Det bruges til at repræsentere diagrammer over digitale integrerede kredsløb. ASM-diagrammet er som et tilstandsdiagram, men mere struktureret og dermed lettere at forstå. Et ASM-diagram er en metode til at beskrive de sekventielle operationer i et digitalt system.

Algoritmisk handel:

Algoritmisk handel er en metode til udførelse af ordrer ved hjælp af automatiserede forprogrammerede handelsinstruktioner, der tegner sig for variabler såsom tid, pris og volumen. Denne type handel forsøger at udnytte computerens hastighed og beregningsressourcer i forhold til menneskelige forhandlere. I det 21. århundrede har algoritmisk handel fået trækkraft hos både detailhandlere og institutionelle forhandlere. Det bruges i vid udstrækning af investeringsbanker, pensionsfonde, gensidige fonde og hedgefonde, der muligvis skal sprede udførelsen af ​​en større ordre eller udføre handler for hurtigt til, at menneskelige forhandlere kan reagere på. En undersøgelse i 2019 viste, at omkring 92% af handelen på Forex-markedet blev udført af handelsalgoritmer snarere end mennesker.

Algoritmisk handel:

Algoritmisk handel er en metode til udførelse af ordrer ved hjælp af automatiserede forprogrammerede handelsinstruktioner, der tegner sig for variabler såsom tid, pris og volumen. Denne type handel forsøger at udnytte computerens hastighed og beregningsressourcer i forhold til menneskelige forhandlere. I det 21. århundrede har algoritmisk handel fået trækkraft hos både detailhandlere og institutionelle forhandlere. Det bruges i vid udstrækning af investeringsbanker, pensionsfonde, gensidige fonde og hedgefonde, der muligvis skal sprede udførelsen af ​​en større ordre eller udføre handler for hurtigt til, at menneskelige forhandlere kan reagere på. En undersøgelse i 2019 viste, at omkring 92% af handelen på Forex-markedet blev udført af handelsalgoritmer snarere end mennesker.

Algoritmisk handel:

Algoritmisk handel er en metode til udførelse af ordrer ved hjælp af automatiserede forprogrammerede handelsinstruktioner, der tegner sig for variabler såsom tid, pris og volumen. Denne type handel forsøger at udnytte computerens hastighed og beregningsressourcer i forhold til menneskelige forhandlere. I det 21. århundrede har algoritmisk handel fået trækkraft hos både detailhandlere og institutionelle forhandlere. Det bruges i vid udstrækning af investeringsbanker, pensionsfonde, gensidige fonde og hedgefonde, der muligvis skal sprede udførelsen af ​​en større ordre eller udføre handler for hurtigt til, at menneskelige forhandlere kan reagere på. En undersøgelse i 2019 viste, at omkring 92% af handelen på Forex-markedet blev udført af handelsalgoritmer snarere end mennesker.

Algoritmisk kunst:

Algoritmisk kunst eller algoritmekunst er kunst, for det meste billedkunst, hvor designet genereres af en algoritme. Algoritmiske kunstnere kaldes undertiden algorister .

Algoritmisk bias:

Algoritmisk bias beskriver systematiske og gentagelige fejl i et computersystem, der skaber uretfærdige resultater, såsom at privilegere en vilkårlig gruppe brugere over andre. Bias kan opstå på grund af mange faktorer, herunder men ikke begrænset til designet af algoritmen eller den utilsigtede eller uventede brug eller beslutninger vedrørende den måde, data kodes, indsamles, vælges eller bruges til at træne algoritmen. Algoritmisk bias findes på tværs af platforme, inklusive men ikke begrænset til søgemaskinens resultater og sociale medieplatforme, og kan have indflydelse, der spænder fra utilsigtet krænkelse af privatlivets fred til at styrke sociale fordomme på race, køn, seksualitet og etnicitet. Undersøgelsen af ​​algoritmisk bias handler mest om algoritmer, der afspejler "systematisk og uretfærdig" diskrimination. Denne bias er først for nylig blevet behandlet i juridiske rammer, såsom Den Europæiske Unions generelle databeskyttelsesforordning for 2018. Mere omfattende regulering er nødvendig, da nye teknologier bliver mere og mere avancerede og uigennemsigtige.

Algoritmisk kompleksitet:

Algoritmisk kompleksitet kan henvise til:

  • I algoritmisk informationsteori er kompleksiteten af ​​en bestemt streng med hensyn til alle algoritmer, der genererer den.
    • Solomonoff-Kolmogorov-Chaitin-kompleksitet, den mest anvendte sådan foranstaltning.
  • I beregningskompleksitetsteori, selvom det ville være en ikke-formel anvendelse af udtrykket, er tid / rum-kompleksiteten af ​​et bestemt problem med hensyn til alle algoritmer, der løser det med beregningsressourcer, der er begrænset af en funktion af inputstørrelsen.
    • Eller det kan henvise til tid / rums kompleksitet af en bestemt algoritme med hensyn til løsning af et bestemt problem, hvilket er en forestilling, der ofte findes i analyse af algoritmer.
Algoritmisk kompleksitet:

Algoritmisk kompleksitet kan henvise til:

  • I algoritmisk informationsteori er kompleksiteten af ​​en bestemt streng med hensyn til alle algoritmer, der genererer den.
    • Solomonoff-Kolmogorov-Chaitin-kompleksitet, den mest anvendte sådan foranstaltning.
  • I beregningskompleksitetsteori, selvom det ville være en ikke-formel anvendelse af udtrykket, er tid / rum-kompleksiteten af ​​et bestemt problem med hensyn til alle algoritmer, der løser det med beregningsressourcer, der er begrænset af en funktion af inputstørrelsen.
    • Eller det kan henvise til tid / rums kompleksitet af en bestemt algoritme med hensyn til løsning af et bestemt problem, hvilket er en forestilling, der ofte findes i analyse af algoritmer.
Algoritmisk kompleksitetsangreb:

Et algoritmisk kompleksitetsangreb er en form for computerangreb, der udnytter kendte tilfælde, hvor en algoritme, der bruges i et stykke software, udviser værste tilfælde. Denne type angreb kan bruges til at opnå en denial-of-service.

Kolmogorov-kompleksitet:

I algoritmisk informationsteori er Kolmogorov-kompleksiteten af et objekt, såsom et stykke tekst, længden af ​​et korteste computerprogram, der producerer objektet som output. Det er et mål for de beregningsressourcer, der er nødvendige for at specificere objektet, og er også kendt som algoritmisk kompleksitet , Solomonoff – Kolmogorov – Chaitin-kompleksitet , programstørrelseskompleksitet , beskrivende kompleksitet eller algoritmisk entropi . Det er opkaldt efter Andrey Kolmogorov, der først offentliggjorde om emnet i 1963.

Algoritmisk sammensætning:

Algoritmisk komposition er teknikken til at bruge algoritmer til at skabe musik.

Algoritmisk køling:

Algoritmisk køling er en algoritmisk metode til overførsel af varme fra nogle qubits til andre eller uden for systemet og ind i miljøet, hvilket resulterer i en køleeffekt. Denne metode bruger regelmæssige kvanteoperationer på ensembler af qubits, og det kan vises, at den kan lykkes ud over Shannons grænse for datakomprimering. Fænomenet er et resultat af forbindelsen mellem termodynamik og informationsteori.

Nedbrydning (datalogi):

Nedbrydning inden for datalogi, også kendt som factoring , bryder et komplekst problem eller system i dele, der er lettere at opfatte, forstå, programmere og vedligeholde.

Generativt design:

Generativt design er en iterativ designproces, der involverer et program, der genererer et bestemt antal output, der opfylder visse begrænsninger, og en designer, der finjusterer det mulige område ved at vælge specifikt output eller ændre inputværdier, intervaller og distribution. Designeren behøver ikke at være menneske, det kan være et testprogram i et testmiljø eller en kunstig intelligens, for eksempel et generativt kontradiktorisk netværk. Designeren lærer at forfine programmet med hver iteration, da deres designmål bliver bedre defineret over tid.

Automatisk differentiering:

I matematik og computeralgebra er automatisk differentiering ( AD ), også kaldet algoritmisk differentiering , beregningsdifferentiering , automatisk differentiering eller simpelthen autodiff , et sæt teknikker til numerisk at evaluere afledningen af ​​en funktion, der er specificeret af et computerprogram. AD udnytter det faktum, at ethvert computerprogram, uanset hvor kompliceret, udfører en sekvens af elementære aritmetiske operationer og elementære funktioner. Ved at anvende kædereglen gentagne gange på disse operationer kan derivater af vilkårlig orden beregnes automatisk, nøjagtigt til arbejdspræcision og højst bruge en lille konstant faktor mere aritmetiske operationer end det oprindelige program.

Algoritmisk bias:

Algoritmisk bias beskriver systematiske og gentagelige fejl i et computersystem, der skaber uretfærdige resultater, såsom at privilegere en vilkårlig gruppe brugere over andre. Bias kan opstå på grund af mange faktorer, herunder men ikke begrænset til designet af algoritmen eller den utilsigtede eller uventede brug eller beslutninger vedrørende den måde, data kodes, indsamles, vælges eller bruges til at træne algoritmen. Algoritmisk bias findes på tværs af platforme, inklusive men ikke begrænset til søgemaskinens resultater og sociale medieplatforme, og kan have indflydelse, der spænder fra utilsigtet krænkelse af privatlivets fred til at styrke sociale fordomme på race, køn, seksualitet og etnicitet. Undersøgelsen af ​​algoritmisk bias handler mest om algoritmer, der afspejler "systematisk og uretfærdig" diskrimination. Denne bias er først for nylig blevet behandlet i juridiske rammer, såsom Den Europæiske Unions generelle databeskyttelsesforordning for 2018. Mere omfattende regulering er nødvendig, da nye teknologier bliver mere og mere avancerede og uigennemsigtige.

Algoritmisk effektivitet:

I datalogi er algoritmisk effektivitet en egenskab ved en algoritme, der relaterer til mængden af ​​beregningsressourcer, der bruges af algoritmen. En algoritme skal analyseres for at bestemme dens ressourceforbrug, og effektiviteten af ​​en algoritme kan måles baseret på brugen af ​​forskellige ressourcer. Algoritmisk effektivitet kan betragtes som analog med teknisk produktivitet for en gentagende eller kontinuerlig proces.

Algoritmiske enheder:

Algoritmiske enheder henviser til autonome algoritmer, der fungerer uden menneskelig kontrol eller interferens. For nylig er der lagt vægt på ideen om, at algoritmiske enheder får juridisk personlighed. Professor Shawn Bayern og professor Lynn M. LoPucki populariserede gennem deres papirer ideen om at have algoritmiske enheder, der opnår juridisk personlighed og de tilhørende rettigheder og forpligtelser.

Kolmogorov-kompleksitet:

I algoritmisk informationsteori er Kolmogorov-kompleksiteten af et objekt, såsom et stykke tekst, længden af ​​et korteste computerprogram, der producerer objektet som output. Det er et mål for de beregningsressourcer, der er nødvendige for at specificere objektet, og er også kendt som algoritmisk kompleksitet , Solomonoff – Kolmogorov – Chaitin-kompleksitet , programstørrelseskompleksitet , beskrivende kompleksitet eller algoritmisk entropi . Det er opkaldt efter Andrey Kolmogorov, der først offentliggjorde om emnet i 1963.

Algoritmisk bias:

Algoritmisk bias beskriver systematiske og gentagelige fejl i et computersystem, der skaber uretfærdige resultater, såsom at privilegere en vilkårlig gruppe brugere over andre. Bias kan opstå på grund af mange faktorer, herunder men ikke begrænset til designet af algoritmen eller den utilsigtede eller uventede brug eller beslutninger vedrørende den måde, data kodes, indsamles, vælges eller bruges til at træne algoritmen. Algoritmisk bias findes på tværs af platforme, inklusive men ikke begrænset til søgemaskinens resultater og sociale medieplatforme, og kan have indflydelse, der spænder fra utilsigtet krænkelse af privatlivets fred til at styrke sociale fordomme på race, køn, seksualitet og etnicitet. Undersøgelsen af ​​algoritmisk bias handler mest om algoritmer, der afspejler "systematisk og uretfærdig" diskrimination. Denne bias er først for nylig blevet behandlet i juridiske rammer, såsom Den Europæiske Unions generelle databeskyttelsesforordning for 2018. Mere omfattende regulering er nødvendig, da nye teknologier bliver mere og mere avancerede og uigennemsigtige.

Algoritmisk spilteori:

Algoritmisk spilteori (AGT) er et område i skæringspunktet mellem spilteori og datalogi med det formål at forstå og designe algoritmer i strategiske miljøer.

Regering efter algoritme:

Regering efter algoritme er en alternativ form for regering eller social ordning, hvor brugen af ​​computeralgoritmer, især kunstig intelligens og blockchain, anvendes på regler, retshåndhævelse og generelt ethvert aspekt af hverdagen såsom transport eller jordregistrering. Udtrykket 'regering ved algoritme' dukkede op i akademisk litteratur som et alternativ til 'algoritmisk regeringsførelse' i 2013. Et beslægtet udtryk, algoritmisk regulering defineres som fastsættelse af standard, overvågning og ændring af adfærd ved hjælp af beregningsalgoritmer - automatisering af retsvæsen i dets anvendelsesområde.

Grafteori:

I matematik er grafteori studiet af grafer , som er matematiske strukturer, der bruges til at modellere parvise relationer mellem objekter. En graf i denne sammenhæng består af hjørner, der er forbundet med kanter . Der skelnes mellem ikke-rettet grafer , hvor kanter forbinder to hjørner symmetrisk, og rettet grafer , hvor kanter forbinder to hjørner asymmetrisk. Grafer er et af de vigtigste genstande til studier i diskret matematik.

Algoritmisk læringsteori:

Algoritmisk læringsteori er en matematisk ramme til analyse af maskinlæringsproblemer og algoritmer. Synonymer inkluderer formel læringsteori og algoritmisk induktiv inferens . Algoritmisk læringsteori er forskellig fra statistisk læringsteori, idet den ikke bruger statistiske antagelser og analyser. Både algoritmisk og statistisk læringsteori er beskæftiget med maskinlæring og kan således ses som grene af beregningslæringsteori.

Algoritmisk slutning:

Algoritmisk inferens samler nye udviklinger i de statistiske inferensmetoder, der er mulige med de stærke computerenheder, der er bredt tilgængelige for enhver dataanalytiker. Hjørnesten i dette felt er beregningslæringsteori, granulær computing, bioinformatik og for længe siden strukturel sandsynlighed. Hovedfokus er på algoritmerne, der beregner statistikker, der forankrer studiet af et tilfældigt fænomen sammen med mængden af ​​data, de skal fodre på for at producere pålidelige resultater. Dette skifter matematikernes interesse fra studiet af distributionslovene til statistikens funktionelle egenskaber og computerforskernes interesse fra algoritmerne for behandling af data til den information, de behandler.

Algoritmisk informationsteori:

Algoritmisk informationsteori (AIT) er en gren af ​​teoretisk datalogi, der vedrører forholdet mellem beregning og information om beregningsgenererede objekter, såsom strenge eller enhver anden datastruktur. Med andre ord er det vist inden for algoritmisk informationsteori, at beregningsmæssig inkompressibilitet "efterligner" de relationer eller uligheder, der findes i informationsteorien. Ifølge Gregory Chaitin er det "resultatet af at sætte Shannons informationsteori og Turings beregningsteori i en cocktailryster og ryste kraftigt."

Algoritmisk informationsteori:

Algoritmisk informationsteori (AIT) er en gren af ​​teoretisk datalogi, der vedrører forholdet mellem beregning og information om beregningsgenererede objekter, såsom strenge eller enhver anden datastruktur. Med andre ord er det vist inden for algoritmisk informationsteori, at beregningsmæssig inkompressibilitet "efterligner" de relationer eller uligheder, der findes i informationsteorien. Ifølge Gregory Chaitin er det "resultatet af at sætte Shannons informationsteori og Turings beregningsteori i en cocktailryster og ryste kraftigt."

Ubeslutsomt problem:

I beregnelighedsteori og beregningskompleksitetsteori er et ubeslutsomt problem et beslutningsproblem, for hvilket det viser sig at være umuligt at konstruere en algoritme, der altid fører til et korrekt ja-eller-nej-svar. Stopproblemet er et eksempel: det kan bevises, at der ikke er nogen algoritme, der korrekt bestemmer, om vilkårlige programmer i sidste ende standser, når de køres.

Algoritmisk handel:

Algoritmisk handel er en metode til udførelse af ordrer ved hjælp af automatiserede forprogrammerede handelsinstruktioner, der tegner sig for variabler såsom tid, pris og volumen. Denne type handel forsøger at udnytte computerens hastighed og beregningsressourcer i forhold til menneskelige forhandlere. I det 21. århundrede har algoritmisk handel fået trækkraft hos både detailhandlere og institutionelle forhandlere. Det bruges i vid udstrækning af investeringsbanker, pensionsfonde, gensidige fonde og hedgefonde, der muligvis skal sprede udførelsen af ​​en større ordre eller udføre handler for hurtigt til, at menneskelige forhandlere kan reagere på. En undersøgelse i 2019 viste, at omkring 92% af handelen på Forex-markedet blev udført af handelsalgoritmer snarere end mennesker.

Automatiseret journalistik:

I automatiseret journalistik , også kendt som algoritmisk journalistik eller robotjournalistik , genereres nyhedsartikler af computerprogrammer. Gennem kunstig intelligens (AI) software produceres historier automatisk af computere snarere end menneskelige journalister. Disse programmer fortolker, organiserer og præsenterer data på menneskelig læsbare måder. Typisk involverer processen en algoritme, der scanner store mængder af leverede data, vælger fra et udvalg af forprogrammerede artikelstrukturer, bestiller nøglepunkter og indsætter detaljer såsom navne, steder, beløb, placeringer, statistikker og andre tal. Outputtet kan også tilpasses, så det passer til en bestemt stemme, tone eller stil.

ALGOL:

ALGOL er en familie af tvingende computerprogrammeringssprog, der oprindeligt blev udviklet i 1958. ALGOL påvirkede stærkt mange andre sprog og var standardmetoden til algoritmebeskrivelse brugt af Association for Computing Machinery (ACM) i lærebøger og akademiske kilder i mere end tredive år.

Algoritmisk læringsteori:

Algoritmisk læringsteori er en matematisk ramme til analyse af maskinlæringsproblemer og algoritmer. Synonymer inkluderer formel læringsteori og algoritmisk induktiv inferens . Algoritmisk læringsteori er forskellig fra statistisk læringsteori, idet den ikke bruger statistiske antagelser og analyser. Både algoritmisk og statistisk læringsteori er beskæftiget med maskinlæring og kan således ses som grene af beregningslæringsteori.

Algoritmisk retsorden:

Algoritmisk retsorden kan henvise til:

  • Regering efter algoritme
  • Lov om distribueret ledgerteknologi
Algoritmisk retsorden:

Algoritmisk retsorden kan henvise til:

  • Regering efter algoritme
  • Lov om distribueret ledgerteknologi
Algoritmisk logik:

Algoritmisk logik er en beregning af programmer, der tillader ekspression af semantiske egenskaber for programmer ved hjælp af passende logiske formler. Det giver en ramme, der gør det muligt at bevise formlerne fra aksiomerne i programkonstruktioner såsom tildeling, iteration og kompositionsinstruktioner og fra aksiomerne i de pågældende datastrukturer, se Mirkowska & Salwicki (1987), Banachowski et al. (1977).

Algoritmisk mekanismedesign:

Algoritmisk mekanismedesign ( AMD ) ligger ved skæringspunktet mellem økonomisk spilteori, optimering og datalogi. Det prototypiske problem i mekanismedesign er at designe et system til flere egeninteresserede deltagere, således at deltagernes egeninteresserede handlinger i ligevægt fører til god systemydelse. Typiske undersøgte mål inkluderer indtægtsmaksimering og social velfærdsmaksimering. Algoritmisk mekanismedesign adskiller sig fra klassisk økonomisk mekanismedesign i flere henseender. Det anvender typisk de analytiske værktøjer inden for teoretisk datalogi, såsom worst case-analyse og tilnærmelsesforhold, i modsætning til klassisk mekanismedesign i økonomi, som ofte gør distributionsantagelser om agenterne. Det anser også beregningsmæssige begrænsninger for at være af central betydning: mekanismer, der ikke effektivt kan implementeres i polynomisk tid, anses ikke for at være levedygtige løsninger på et mekanismedesignproblem. Dette udelukker f.eks. Ofte den klassiske økonomiske mekanisme, auktionen Vickrey – Clarke – Groves.

Algoritme:

I matematik og datalogi er en algoritme en endelig sekvens af veldefinerede, computerimplementerede instruktioner, typisk for at løse en klasse af problemer eller for at udføre en beregning. Algoritmer er altid entydige og bruges som specifikationer til udførelse af beregninger, databehandling, automatiseret ræsonnement og andre opgaver.

Algoritmisk sammensætning:

Algoritmisk komposition er teknikken til at bruge algoritmer til at skabe musik.

Beregningstalteori:

I matematik og datalogi er beregningstalteori , også kendt som algoritmisk talteori , studiet af beregningsmetoder til at undersøge og løse problemer i talteori og aritmetisk geometri, herunder algoritmer til primalitetstest og heltal faktorisering, finde løsninger på diofantiske ligninger, og eksplicitte metoder i aritmetisk geometri. Computational number theory har anvendelser til kryptografi, herunder RSA, elliptisk kurve-kryptografi og post-quantum-kryptografi, og bruges til at undersøge formodninger og åbne problemer i talteori, herunder Riemann-hypotesen, Birch og Swinnerton- Dyer-formodning, ABC-formodning, modularitetsformodning, Sato-Tate-formodning og eksplicitte aspekter af Langlands-programmet.

Algoritmisk talteori-symposium:

Algorithmic Number Theory Symposium (ANTS) er en toårig akademisk konference, der først blev afholdt i Cornell i 1994 og udgjorde et internationalt forum til præsentation af ny forskning inden for beregningstalteori. De er afsat til algoritmiske aspekter af talteori, herunder elementær talteori, algebraisk talteori, analytisk talteori, talgeometri, aritmetisk geometri, endelige felter og kryptografi.

Parhandel:

Parhandel eller parhandel er en markedsneutral handelsstrategi, der gør det muligt for erhvervsdrivende at drage fordel af stort set alle markedsforhold: opadgående, nedadgående eller sidelæns bevægelse. Denne strategi er kategoriseret som en statistisk arbitrage- og konvergenshandelsstrategi. Parhandel var banebrydende af Gerry Bamberger og blev senere ledet af Nunzio Tartaglias kvantitative gruppe i Morgan Stanley i 1980'erne.

Algoritmisk paradigme:

Et algoritmisk paradigme eller algoritmedesignparadigme er en generisk model eller ramme, der ligger til grund for designet af en klasse algoritmer. Et algoritmisk paradigme er en abstraktion, der er højere end forestillingen om en algoritme, ligesom en algoritme er en abstraktion, der er højere end et computerprogram.

Softwarepatent:

Et softwarepatent er et patent på et stykke software, såsom et computerprogram, biblioteker, brugergrænseflade eller algoritme.

Softwarepatent:

Et softwarepatent er et patent på et stykke software, såsom et computerprogram, biblioteker, brugergrænseflade eller algoritme.

Algoritmisk prisfastsættelse:

Algoritmisk prisfastsættelse er praksis med automatisk at indstille den ønskede pris for varer til salg for at maksimere sælgerens fortjeneste.

Algoritmisk sandsynlighed:

I algoritmisk informationsteori er algoritmisk sandsynlighed , også kendt som Solomonoff-sandsynlighed , en matematisk metode til at tildele en tidligere sandsynlighed til en given observation. Det blev opfundet af Ray Solomonoff i 1960'erne. Det bruges i induktiv inferens teori og analyser af algoritmer. I sin generelle teori om induktiv slutning bruger Solomonoff det tidligere opnåede ved denne formel, i Bayes 'regel til forudsigelse.

Algoritme:

I matematik og datalogi er en algoritme en endelig sekvens af veldefinerede, computerimplementerede instruktioner, typisk for at løse en klasse af problemer eller for at udføre en beregning. Algoritmer er altid entydige og bruges som specifikationer til udførelse af beregninger, databehandling, automatiseret ræsonnement og andre opgaver.

Fejlfinding af algoritmisk program:

Algoritmisk fejlretning er en fejlretningsteknik, der sammenligner resultaterne af delberegninger med, hvad programmøren havde til hensigt. Teknikken konstruerer en intern repræsentation af alle beregninger og underberegninger, der udføres under udførelsen af ​​et buggyprogram, og spørger derefter programmøren om rigtigheden af ​​sådanne beregninger. Ved at stille programmørens spørgsmål eller bruge en formel specifikation kan systemet identificere præcist, hvor i et program en fejl er placeret. Fejlfindingsteknikker kan dramatisk reducere den tid og kræfter, der bruges på fejlretning.

Algoritmisk radikalisering:

Den algoritmiske radikaliseringshypotese er konceptet om, at algoritmer på populære sociale mediesider som YouTube og Facebook kører brugere mod gradvis mere ekstremt indhold over tid, hvilket fører til, at de bliver radikaliseret til ekstremistiske politiske synspunkter.

Algoritmisk radikalisering:

Den algoritmiske radikaliseringshypotese er konceptet om, at algoritmer på populære sociale mediesider som YouTube og Facebook kører brugere mod gradvis mere ekstremt indhold over tid, hvilket fører til, at de bliver radikaliseret til ekstremistiske politiske synspunkter.

Algoritmisk tilfældig sekvens:

Intuitivt er en algoritmisk tilfældig sekvens en sekvens af binære cifre, der ser tilfældig ud for enhver algoritme, der kører på en universel Turing-maskine. Begrebet kan anvendes analogt på sekvenser på ethvert endeligt alfabet. Tilfældige sekvenser er nøgleobjekter til undersøgelse i algoritmisk informationsteori.

Reduktion (kompleksitet):

I beregnelighedsteori og beregningskompleksitetsteori er en reduktion en algoritme til at omdanne et problem til et andet problem. En tilstrækkelig effektiv reduktion fra et problem til et andet kan anvendes til at vise, at det andet problem er mindst lige så vanskeligt som det første.

Algoritmisk regulering:

Algoritmisk regulering kan henvise til:

  • Regering efter algoritme, brug af algoritmer i regeringen
  • Regulering af algoritmer, regler og love for algoritmer
Algoritmisk skelet:

I databehandling er algoritmiske skeletter eller parallelismemønstre en parallel parallel programmeringsmodel på højt niveau til parallel og distribueret databehandling.

Stabilitet (læringsteori):

Stabilitet , også kendt som algoritmisk stabilitet , er en forestilling i beregningslæringsteori om, hvordan en maskinlæringsalgoritme forstyrres af små ændringer i dens input. En stabil læringsalgoritme er en, hvor forudsigelsen ikke ændrer sig meget, når træningsdataene ændres lidt. Overvej f.eks. En maskinlæringsalgoritme, der trænes i at genkende håndskrevne bogstaver i alfabetet ved hjælp af 1000 eksempler på håndskrevne bogstaver og deres etiketter som et træningssæt. En måde at ændre dette træningssæt på er at udelade et eksempel, så kun 999 eksempler på håndskrevne breve og deres etiketter er tilgængelige. En stabil indlæringsalgoritme ville producere en lignende klassifikator med både 1000-element og 999-element træningssæt.

Algoritmisk tilstandsmaskine:

Den algoritmiske tilstandsmaskine ( ASM ) -metode er en metode til at designe endelige statsmaskiner (FSM'er), der oprindeligt blev udviklet af Thomas E. Osborne ved University of California, Berkeley (UCB) siden 1960, introduceret til og implementeret på Hewlett-Packard i 1968, formaliseret og udvidet siden 1967 og skrevet af Christopher R. Clare siden 1970. Det bruges til at repræsentere diagrammer over digitale integrerede kredsløb. ASM-diagrammet er som et tilstandsdiagram, men mere struktureret og dermed lettere at forstå. Et ASM-diagram er en metode til at beskrive de sekventielle operationer i et digitalt system.

Syntese på højt niveau:

Højniveau-syntese ( HLS ), undertiden benævnt C-syntese , elektronisk systemniveau (ESL) -syntese , algoritmisk syntese eller adfærdsmæssig syntese , er en automatiseret designproces, der fortolker en algoritmisk beskrivelse af en ønsket adfærd og skaber digital hardware, der implementerer denne adfærd.

Stiltiende samarbejde:

Stiltiende samarbejde er et samarbejde mellem konkurrenter, som ikke udtrykkeligt udveksler information og opnår en aftale om koordinering af adfærd. Der er to typer af stiltiende samarbejde - samordnet handling og bevidst parallelitet . I en samordnet handling, også kendt som samordnet aktivitet , udveksler konkurrenter nogle oplysninger uden at nå nogen eksplicit aggrement, mens bevidst parallelitet ikke indebærer nogen kommunikation. I begge typer stiltiende samarbejde er konkurrenter enige om at spille en bestemt strategi uden udtrykkeligt at sige det . Det kaldes også oligopolistisk priskoordinering eller stiltiende parallelisme .

Algoritmisk teknik:

I matematik og datalogi er en algoritmisk teknik en generel tilgang til implementering af en proces eller beregning.

Algoritmisk teknik:

I matematik og datalogi er en algoritmisk teknik en generel tilgang til implementering af en proces eller beregning.

Tidskompleksitet:

I datalogi er tidskompleksiteten den beregningskompleksitet, der beskriver mængden af ​​computertid, det tager at køre en algoritme. Tidskompleksitet estimeres almindeligvis ved at tælle antallet af elementære operationer, der udføres af algoritmen, forudsat at det tager en fast tid at udføre hver elementær operation. Således tages den tid, det tager, og antallet af elementære operationer, der udføres af algoritmen, at variere med højst en konstant faktor.

Beregningstopologi:

Algoritmisk topologi eller beregningstopologi er et underfelt af topologi med en overlapning med områder inden for datalogi, især beregningsgeometri og beregningskompleksitetsteori.

Algoritmisk handel:

Algoritmisk handel er en metode til udførelse af ordrer ved hjælp af automatiserede forprogrammerede handelsinstruktioner, der tegner sig for variabler såsom tid, pris og volumen. Denne type handel forsøger at udnytte computerens hastighed og beregningsressourcer i forhold til menneskelige forhandlere. I det 21. århundrede har algoritmisk handel fået trækkraft hos både detailhandlere og institutionelle forhandlere. Det bruges i vid udstrækning af investeringsbanker, pensionsfonde, gensidige fonde og hedgefonde, der muligvis skal sprede udførelsen af ​​en større ordre eller udføre handler for hurtigt til, at menneskelige forhandlere kan reagere på. En undersøgelse i 2019 viste, at omkring 92% af handelen på Forex-markedet blev udført af handelsalgoritmer snarere end mennesker.

Algoritmisk handel:

Algoritmisk handel er en metode til udførelse af ordrer ved hjælp af automatiserede forprogrammerede handelsinstruktioner, der tegner sig for variabler såsom tid, pris og volumen. Denne type handel forsøger at udnytte computerens hastighed og beregningsressourcer i forhold til menneskelige forhandlere. I det 21. århundrede har algoritmisk handel fået trækkraft hos både detailhandlere og institutionelle forhandlere. Det bruges i vid udstrækning af investeringsbanker, pensionsfonde, gensidige fonde og hedgefonde, der muligvis skal sprede udførelsen af ​​en større ordre eller udføre handler for hurtigt til, at menneskelige forhandlere kan reagere på. En undersøgelse i 2019 viste, at omkring 92% af handelen på Forex-markedet blev udført af handelsalgoritmer snarere end mennesker.

Algoritmisk gennemsigtighed:

Algoritmisk gennemsigtighed er princippet om, at de faktorer, der påvirker de beslutninger, der træffes af algoritmer, skal være synlige eller gennemsigtige for de mennesker, der bruger, regulerer og påvirkes af systemer, der anvender disse algoritmer. Selvom sætningen blev opfundet i 2016 af Nicholas Diakopoulos og Michael Koliska om algoritmernes rolle i beslutningen om indholdet af digitale journalistiktjenester, går det bagvedliggende princip tilbage til 1970'erne og fremkomsten af ​​automatiserede systemer til at score forbrugerkredit.

Szemerédi-regelmæssighedslemma:

Szemerédi's regelmæssighedslemma er et af de mest kraftfulde værktøjer i ekstrem grafteori, især i studiet af store tætte grafer. Det hedder, at hjørnerne på hver stor nok graf kan opdeles i et afgrænset antal dele, så kanterne mellem forskellige dele opfører sig næsten tilfældigt.

Szemerédi-regelmæssighedslemma:

Szemerédi's regelmæssighedslemma er et af de mest kraftfulde værktøjer i ekstrem grafteori, især i studiet af store tætte grafer. Det hedder, at hjørnerne på hver stor nok graf kan opdeles i et afgrænset antal dele, så kanterne mellem forskellige dele opfører sig næsten tilfældigt.

Szemerédi-regelmæssighedslemma:

Szemerédi's regelmæssighedslemma er et af de mest kraftfulde værktøjer i ekstrem grafteori, især i studiet af store tætte grafer. Det hedder, at hjørnerne på hver stor nok graf kan opdeles i et afgrænset antal dele, så kanterne mellem forskellige dele opfører sig næsten tilfældigt.

Không có nhận xét nào:

Đăng nhận xét

, ,