Skapande av ny teknik med hjälp av datormodellering. Hur datorsimuleringar utförs


Datormodellen är naturlig. Datormodellering används överallt, gör design och produktion av verkliga system, maskiner, mekanismer, varor, produkter ekonomiska, praktiska och effektiva. Resultatet är alltid förmodellerat.

Människan har alltid byggt modeller, men med tillkomsten av datateknik matematik, datorer och mjukvarumetoder lyfte idéer och modelleringsteknik till extraordinära höjder, gjorde ett brett spektrum av deras tillämpning: från den primitiva tekniska nivån till nivån av hög konst och kreativitet.

En datormodell är inte bara ett mer perfekt rymdfarkost eller ett konceptuellt system för att förstå allmänhetens medvetande, utan också en verklig möjlighet att bedöma klimatförändringar på planeten eller bestämma konsekvenserna av en kometpåverkan på några hundra år.

Teknisk modellering

Idag är det få specialister som inte vet det, och tävlingen om detta program är redan ett dussin mer perfekta lösningar.

Att modellera ett modernt flygplan eller en cykel kräver i slutändan mer än att automatisera produktionen av ritningar och utarbeta dokumentation. Modelleringsprogrammet är skyldigt att göra den tekniska delen: att rita ritningar och dokumentation är grunden.

Programmet måste också visa den verkliga produkten i verklig applikation i tid i tredimensionellt utrymme: under flygning, i rörelse, vid användning, inklusive sannolika olyckor, utbyte av energibäraren, negativ påverkan från människa eller natur, korrosion, klimatpåverkan eller andra omständigheter.

Systemmodellering

En modell av ett verktygsmaskin, en produkt, en transportör - det här är system, men system med en tydlig struktur och innehåll, redan gjorda en gång. Var och en av dem har erfarenhet, kunskap och exempel på att använda datormodeller.

Den tekniska verkligheten är samma system som systemet för relationer i samhället, systemet reklamkampanj, en modell av den mänskliga psyken eller dess cirkulationssystem.

Till exempel kan en tillförlitlig diagnos av sjukdomen idag erhållas som:

  • resultatet av läkarens behöriga handlingar;
  • produktion datorprogram, som byggde en modell av patientens tillstånd.

Dessa två alternativ leder alltmer till samma resultat.

En person lever i en värld av system, och dessa system kräver att man fattar beslut som kräver initiala data: förståelse och uppfattning av den omgivande verkligheten. Utan modellering är det omöjligt att förstå systemens karaktär och fatta ett beslut.

Endast en datormatematisk modell gör det möjligt att bedöma objektiviteten och förståelsen av det ursprungliga systemet, vilket gradvis ger det skapade virtuell bild till originalet.

Abstraktion i modellering

Datormodeller och modellering är ett extremt lovande och dynamiskt utvecklat teknikområde. Här är högteknologiska lösningar en vanlig (vanlig, daglig) händelse, och möjligheterna med modeller och modellering förvånar varje sofistikerad fantasi.

Men en person har ännu inte nått abstrakt systemisk modellering. Exempel på att använda datormodeller är verkliga exempel verkliga system. För varje modelleringsriktning, för varje typ av modell, varje typ av produkt, transportörer etc. finns en separat program eller ett separat objekt i menyn i ett program som ger simulering i ett relativt brett spektrum av system.

Själva programvaran är en modell. Resultatet av en programmerares arbete är alltid en modell. Ett dåligt eller ett bra program, men det är alltid en modell för att lösa ett specifikt problem som tar emot initialdata och bildar resultatet.

Klassisk programmering - klassiska modeller, ingen abstraktion: ett exakt problem utan dynamikalternativ efter avslutad utveckling. Det är som en riktig maskin, en riktig produkt, vilken produkt som helst med strikta kvantitativa och kvalitativa egenskaper: gjort - använd inom gränserna för vad som är tillgängligt, men inget utanför det som har gjorts.

Objektorienterad programmering - systemmodell med ett krav på abstraktion och dynamik av struktur och egenskaper, det vill säga med fokus på att skapa en dynamisk modell som bestämmer dess syfte av applikationsmiljön eller det problem som löses.

Här kan modellen "leva" efter att den är inom applikationsområdet ensam utan dess skapare (författare) och kommer självständigt att "samarbeta" med användare.

Modellering: kärnan i processen

Konceptet med en datormodell presenteras idag olika alternativ åsikter, men de är alla överens om att programmet fungerar, och i sammanhanget: modellen är lika med resultatet av en specialist som arbetar i en specifik modelleringsmiljö för ett visst program.

Det finns tre typer av modeller: kognitiva, pragmatiska och instrumentella.

I det första fallet uttrycks modelleringsaspekten mest av allt som önskan att erhålla en modell i form av utföringsformen av kunskap, kunskap om teorin och en global process. Den pragmatiska modellen - ger en uppfattning om praktisk handling, arbetare, produktionshanteringssystem, produkt, maskin. Det tredje alternativet förstås som en miljö för att bygga, analysera och testa alla modeller i allmänhet.

Datormodellering är vanligtvis en specialist inom konstruktion och studier av ett materiellt eller idealiskt (virtuellt) objekt som ersätter det system som studeras, men som på ett adekvat sätt återspeglar dess väsentliga aspekter, kvalitativa och kvantitativa egenskaper.

Artdiversitet av simulerade system

Inom modelleringsområdet, som vid alla gränser högteknologisk, vetenskap, teknik och programmering, det finns många åsikter om klassificeringen och definitionen av artsmångfalden hos modellerade system.

Men experter och specialister är alltid överens om en sak: typerna av datormodeller kan bestämmas av objektiva punkter:

  • tid;
  • sätt att presentera;
  • karaktären hos det modellerade partiet;
  • osäkerhetsnivån;
  • implementeringsalternativ.

Tidsmomentet är statiska och dynamiska modeller. Det förstnämnda kan förfinas så mycket du vill, men dynamiska modeller utvecklas och vid varje ögonblick skiljer de sig åt. Presentationen förstås vanligtvis som diskret eller kontinuerlig. Karaktären hos den modellerade sidan är informativ, strukturell eller funktionell (cybernetisk).

Införandet av osäkerhetsparametrar i det modellerade systemet är i många fall inte bara motiverat utan också en konsekvens av vetenskapliga framsteg inom relaterade kunskapsområden. Att bygga en klimatmodell i en viss geografisk region skulle till exempel inte vara realistisk utan många stokastiska faktorer.

Moderna modelleringsverktyg

Modellering idag är en enorm upplevelse av många decenniers utveckling datorindustrin, som presenterades i form av algoritmer och program under många århundraden av modellering, i allmänhet och matematisk modellering, i synnerhet.

Populär programvara representeras av en liten familj av allmänt kända produkter: AutoCAD, 3D Max, Wings 3D, Blender 3D, SketchUp. Det finns många speciella implementeringar baserade på dessa produkter.

Förutom det välkända finns det en betydande privat, till exempel marknaden för geografisk, kartografisk, geodetisk; film- och videoindustrimarknaden, representerad av ett betydande antal mindre kända mjukvaruprodukter... Familjerna till GeoSoft, TEPLOV, Houdini, etc., inom deras kompetensområde, är inte sämre än någon vad gäller kvalitet, användbarhet och effektivitet.

När du väljer det bästa programvaruverktyget den bästa lösningen - att bedöma området för den föreslagna modelleringen, miljön för den framtida modellen. Detta gör att du kan bestämma de nödvändiga verktygen.

Små och kreativa modeller

Och även om "det finns lite kreativitet kvar" i utformningen av en modern flygbuss, sportbil eller rymdfarkost, har faktiskt programmering och organisering av affärsprocesser blivit föremål för den mest uppmärksammade och målet för den dyraste och mest komplexa modelleringen. processer.

Modern verksamhet är inte bara hundratals anställda, utrustning, utan också tusentals produktion och sociala kontakter inom och utanför företaget. Detta är en helt ny och outforskad riktning: molnteknik, organisering av privilegierad tillgång, skydd mot skadliga attacker, anställningsbrott.

Modern programmering har blivit för komplicerad och förvandlad till ett speciellt slag med ett eget liv. En mjukvaruprodukt som skapats av ett utvecklingsteam är avsedd att simuleras och studeras för ett annat utvecklingsföretag.

Auktoritärt exempel

Man kan föreställa sig windows-system eller Linux-familjen som ett ämne för modellering och att tvinga någon att bygga adekvata modeller. Den praktiska relevansen här är så låg att det är billigare att helt enkelt använda och ignorera dessa systems brister. Deras utvecklare har sin egen uppfattning om den utvecklingsväg han behöver och kommer inte att vända sig bort från den.

Motsatsen kan sägas om databaser och dynamiken i deras utveckling. Oracle är ett stort företag. Många idéer, tusentals utvecklare, hundratusentals perfekta lösningar.

Men Oracle är först och främst en grund och ett kraftfullt skäl för modellering, och det verkar som om investeringen i denna process kommer att få en enorm avkastning på investeringen.

Oracle har varit i ledarskap från början och är inte sämre än någon när det gäller att skapa databaser, säkerställa ansvarsfull inställning till information, dess skydd, migration, lagring etc. Allt du behöver för att upprätthålla informationsuppgifter, är Oracle.

Nackdelen med Oracle

Investeringar och arbetskraft hos de bästa utvecklarna för att lösa ett brådskande problem är en objektiv nödvändighet. Under årtionden av sitt ledarskap har Oracle slutfört hundratals faktiska uppgifter och tusentals implementeringar och uppdateringar.

Omfattning av information i sammanhang datorapplikationer från 80-talet till denna dag har inte förändrats. Konceptuellt är databaserna i början av datortiden och idag tvillingbröder med skillnad i säkerhetsnivå och implementerad funktionalitet.

För att uppnå den moderna nivån av "säkerhet och implementerad funktionalitet" utförde Oracle, särskilt:

  • kompatibilitet med stora strömmar av heterogen information;
  • datamigrering och transformation;
  • verifiering och testning av applikationer;
  • generaliserad relationsfunktionalitet för universell tillgång;
  • migrering av data / specialister;
  • omvandling av grunderna för företagsdatabaser till en distribuerad internetmiljö;
  • maximal integration, aggregatorer, systematisering;
  • bestämning av genomförbarhetsspektrum, eliminering av dubbla processer.

Detta är bara en liten bråkdel av ämnena som utgör multivolymbeskrivningarna av de aktuella mjukvaruprodukterna från Oracle. I själva verket är utbudet av tillverkade lösningar mycket bredare och kraftfullare. Alla stöds av Oracle-support och tusentals kvalificerade proffs.

Inkomstmodell

Om Oracle på 1980-talet hade gått igenom modellering snarare än konkret kapacitetsuppbyggnad i form av verkliga, kompletta lösningar, skulle situationen ha utvecklats väsentligt annorlunda. I stort sett en person eller ett företag från en dator informationssystem det behövs inte så mycket. Här är studiet av en datormodell inte av intresse.

Du behöver alltid bara få en lösning på det problem som har uppstått. Hur denna lösning kommer att uppnås bryr sig konsumenten aldrig. Han är inte alls intresserad av att veta vad datamigrering är eller hur man testar applikationskoden så att den fungerar på alla data, och i händelse av en oförutsedd situation kan han lugnt rapportera det och inte göra det blåskärm eller hänga tyst.

Genom att modellera nästa behov programmatiskt och inte genom att investera i en annan specialist som kommer att tillämpa sitt sinne och sin kunskap för att skapa nästa del av koden kan du uppnå mer.

Vilken som helst, den bästa specialisten är först och främst en statisk kod, det är en fixering av den bästa kunskapen i form av ett monument till författaren. Det här är bara kod. Resultatet av de bästa arbetena utvecklas inte, men för dess utveckling kräver det nya utvecklare, nya författare.

Sannolikhet att förverkliga inkomstmodellen

Utvecklare och IT-branschen har i allmänhet redan slutat behandla dynamik, kunskap och artificiell intelligens med entusiasmen som följde vågorna av intresse under de senaste åren.

Rent formellt associerar många sina produkter eller arbetsområden med ämnet. artificiell intelligens, men är faktiskt engagerade i implementeringen av strikt definierade algoritmer, molnlösningar, lägger vikt vid säkerhet och skydd mot alla typer av hot.

Samtidigt är datormodellen dynamik. Datormodellering är dess konsekvenser. Denna objektiva omständighet har ännu inte avbrutits. Det är helt omöjligt att avbryta det. Oracle-exemplet är det bästa och mest avslöjande exemplet på andra som visar hur mödosamt, dyrt och ineffektivt det är att bedriva tvångsmodellering när man måste bygga riktigt fungerande modeller av arbetet hos många tusen specialister och inte automatiskt av det designade informationssystemet i sig - modellen i dynamik i praktiken!

Datormodellering används ofta inom olika grenar av vetenskap och teknik och ersätter gradvis verkliga experiment och experiment. Det har blivit så fast inbäddat i vårt liv att det redan är ganska svårt att föreställa sig en situation när vi måste vägra detta sätt att studera den verkliga världen. Detta fenomen kan lätt förklaras: användning av denna process du kan uppnå betydande resultat på kortast möjliga tid, så att du kan tränga in i det område av verkligheten som inte är möjligt för en person.

Dator låter dig skapa en modell på en dator som, med viss antagande, har egenskaperna verkligt objekt eller process, och forskningen utförs på denna skapade modell. För att utföra forskning är det nödvändigt att förstå exakt vad de utförs för, vad är deras syfte, vilka egenskaper, aspekter av objektet som studeras är av intresse för dig. Endast i det här fallet kan du vara säker på positivt resultat.

Liksom alla andra processer är datormodellering byggd enligt vissa principer, bland vilka följande kan urskiljas:

· Principen om informationssäkerhet. Om information om den verkliga processen eller föremålet inte räcker, utför forskning med hjälp av den här metoden troligtvis kommer det inte att fungera;

· Principen om genomförbarhet. Den skapade modellen bör göra det möjligt att uppnå de uppsatta målen för forskaren;

· Principen för flera modeller, som baseras på det faktum att det är nödvändigt att utveckla flera modeller för att studera alla egenskaper hos ett verkligt objekt, eftersom det inte är möjligt att kombinera alla verkliga egenskaper i en;

· Principen för aggregering. I detta fall komplexa objekt den presenteras i form av separata block som kan byggas om på ett visst sätt;

Principen för parathmerisering, som gör det möjligt att ersätta parametrarna för ett visst delsystem numeriska värden, vilket minskar volymen och modellens varaktighet, minskar också tillräckligheten för den resulterande modellen. Därför ansökan denna princip måste vara helt motiverat.

Datorsimulering bör utföras i en specifik, strikt definierad sekvens. I det första steget bestäms målet, varefter utvecklingen genomförs och sedan formaliseras modellen, vilket möjliggör implementering av programvaran. Därefter kan du börja planera modellexperimenten och implementera det tidigare utarbetade. Efter att alla tidigare poäng har slutförts är det möjligt att analysera och tolka de erhållna resultaten.

I senare tid datormodellering av fysiska processer utförs med hjälp av olika Du kan hitta ett stort antal verk utförda i Matlab. Sådana studier gör det möjligt för oss att studera alla slags fysiska processer som en person i verkligheten inte kan observera.

Datorsimulering används ofta inom industrin. Med hjälp av det utvecklas nya produkter, nya maskiner designas, deras driftsförhållanden ställs in och virtuella tester utförs. Om den sammanställda modellen har tillräcklig grad av tillräcklighet kan det hävdas att resultaten av verkliga tester kommer att likna virtuella. Förutom att studera egenskaperna hos ett visst system kan du utveckla på en dator utseende färdig produkt, ställ in dess parametrar. Detta minimerar mängden skrot som kan orsakas av felaktiga tekniska beräkningar.

Det råder absolut ingen tvekan om att datormodellering av olika fysiska processer har väsentligt påskyndat processen att utveckla tekniska produkter, samtidigt som utvecklare sparat mycket pengar på att montera testmodeller. Med modern beräkningskraft och programvara ingenjörer kan simulera arbete enskilda komponenter och noder för komplexa system, vilket kommer att minska antalet fysiska tester som krävs innan en ny produkt lanseras. Tillverkare kan också beräkna utvecklingskostnaden efter modellering med CAD-system, snarare än att vänta på slutet av den fysiska produkttestningen.

Dagens industri står inför utmaningar som produktutvecklingstid och utvecklingskostnad när man lanserar nya produkter. Och inom fordons- och flygindustrin är det nästan omöjligt att göra utan CAD-modellering, eftersom modellering hjälper till att påskynda utvecklingen avsevärt och sänka kostnaderna, vilket är mycket viktigt för modern marknad... Historiskt framväxten av modern datorsystem, som kan simulera de dynamiska egenskaperna hos objekt under olika influenser, överskuggade moderniseringen av stativ för fysiska tester, liksom utvecklingen av testmetoder. Många organisationer försöker välja modellering eftersom det kräver lägsta kostnad och minsta utvecklingstid. I vissa studier kan dock det exakta svaret endast tillhandahållas genom fysisk testning av produkten. Inte mer nära interaktion mellan elektroniska modeller och fysisk testning kan många organisationer bli alltför beroende av datormodeller för utveckling, vilket när missbruka kan därefter leda till oförutsedda fel i driften av dyr utrustning.

Inom fordonsindustrin blir datormodellering en integrerad del eftersom moderna bilars design har blivit mycket mer komplex och datormodelleringssystem har förbättrats avsevärt. Tyvärr håller många tillverkare dock fysiska produkttester till ett minimum genom att förlita sig på datasimuleringar.

Fysiska testprocesser har inte följt med datorsimuleringar för att förbättra tekniker. Testingenjörer försöker vanligtvis hålla minimum nödvändiga tester ovanför produkten. Som ett resultat, frekventare upprepningar av tester för att få mer tillförlitliga resultat eller deras bekräftelse. Att förlita sig enbart på datasimulering utan fysisk testning kan leda till mycket allvarliga konsekvenser i framtiden, eftersom den matematiska modellen för produkten, på grundval av vilken processen att beräkna de dynamiska egenskaperna utförs, skapas med vissa antaganden och i verkligheten arbete kan produkten fungera lite annorlunda än vad som visades på monitorn.

Datorsimulering har en symbiotisk relation med fysisk testning av utrustning, vilket gör det möjligt (i motsats till en datormodell) att få experimentell data. Därför är eftersläpningen i testteknik för färdiga enheter, med en sådan ökad kapacitet datorteknik, kan leda till onödiga besparingar på experimentprover med efterföljande problem i den färdiga produkten. Modellernas noggrannhet beror direkt på ingångsdata om modellens beteende (matematisk beskrivning) under olika förhållanden.

Naturligtvis kan inte modellelement inkludera alla möjliga alternativ och villkoren för beteendet hos vissa komponenter, eftersom beräkningarnas komplexitet och den matematiska modellens besvärlighet helt enkelt skulle bli enorm. För att förenkla den matematiska modellen görs vissa antaganden som "inte borde" ha någon betydande inverkan på mekanismens funktion. Tyvärr är verkligheten alltid mycket hårdare. Till exempel kommer en matematisk modell inte att kunna beräkna hur enheten kommer att bete sig om det finns mikrosprickor i materialet, eller om vädret förändras plötsligt, vilket kan leda till en helt annan belastningsfördelning i strukturen. Experimentella data och beräknade data skiljer sig ganska ofta från varandra. Och detta måste komma ihåg.

Det finns ett annat viktigt plus för fysisk testning av utrustning. Detta är förmågan att påpeka brister för ingenjörer vid sammanställning av matematiska modeller, och ger också ett bra tillfälle att upptäcka nya fenomen och förbättra gamla beräkningsmetoder. När allt kommer omkring måste du komma överens om att om du kör variabler till en matematisk formel beror resultatet på variablerna och inte på formeln. Formeln kommer alltid att förbli konstant, och endast ett verkligt fysiskt test kan komplettera eller ändra den.

Framväxten av nya material i alla grenar av modern industri skapar ytterligare problem för datormodellering. Om ingenjörer fortsatte att använda tidtestade material och deras förbättrade matematiska beskrivningar, ja, modelleringsproblem skulle vara betydligt mindre. Men uppkomsten av nya material kräver obligatorisk fysisk testning av färdiga produkter med dessa material. Nya artiklar dyker emellertid alltmer upp på marknaden och tillväxttrenderna ökar bara.

Till exempel inom flyg- och fordonsindustrin, kompositmaterial på grund av deras goda specifika styrka. Ett av huvudproblemen med datormodellering är modellens oförmåga att exakt förutsäga beteendet hos ett material som upplever en viss brist på egenskaper, jämfört med material från aluminium, stål, plast och andra som länge har använts i denna bransch .

Att verifiera trovärdigheten hos datormodeller för kompositmaterial är avgörande under designfasen. Efter att ha gjort beräkningarna är det nödvändigt att montera en testbänk på en riktig del. När man utför fysiska tester för att mäta deformation och belastningsfördelning fokuserar ingenjörer på kritiska punkter som identifierats av en datormodell. För att samla in information om kritiska punkter används spänningsmätare. Denna process kan endast övervakas för förväntade problem som kan skapa blinda fläckar i testprocessen. Utan omfattande forskning kan modellens äkthet bekräftas, även om det faktiskt inte kommer att göra det.


Det finns också ett problem med mätteknologier som gradvis blir föråldrade, till exempel, töjningsmätare och termoelement tillåter inte att täcka hela det erforderliga mätområdet. För det mesta kan traditionella sensorer bara mäta det önskade värdet i vissa områden, utan att tillåta djup penetration i kärnan av det som händer. Som ett resultat tvingas forskare att lita på förmodellerade processer som visar sårbarheter och få testare att ägna särskild uppmärksamhet åt en viss nod i systemet som testas. Men som alltid finns det en men. Detta tillvägagångssätt gäller väl för tidtestade och välstuderade material, men för strukturer som innehåller nya material kan det vara skadligt. Därför försöker designingenjörer inom alla branscher att uppdatera de gamla mätmetoderna så mycket som möjligt, samt introducera nya som gör det möjligt att göra mer detaljerade mätningar än de gamla sensorerna och metoderna.

Strain gauge-tekniken har varit i stort sett oförändrad sedan uppfinningen för decennier sedan. Ny teknik som kan mäta total fältstyrka och temperatur. Till skillnad från äldre teknik för töjningsmätare, som bara kan samla in information vid kritiska punkter, kan fiberoptiska sensorer samla in kontinuerliga töjnings- och temperaturdata. Dessa tekniker är mycket mer fördelaktiga vid fysisk testning, eftersom de gör det möjligt för ingenjörer att observera beteendet hos den struktur som studeras vid och mellan kritiska punkter.

Till exempel kan fiberoptiska sensorer bäddas in i kompositer under stillestånd för att bättre förstå vulkaniseringsprocesser. Vanlig nackdeltill exempel kan det finnas en rynkningsprocess i ett av materialskikten, vilket orsakar inuti mekanisk stress... Dessa processer är fortfarande mycket dåligt förstådda och det finns väldigt lite information om spänningen och belastningen i kompositmaterial, vilket gör det nästan omöjligt att tillämpa datormodellering på dem.

Föråldrade tekniker för töjningsmätare är mycket kapabla att upptäcka permanenta deformationer i kompositmaterial, men bara om töjningsfältet når ytan och sensorn är installerad på rätt plats. Å andra sidan kan rumsliga kontinuerliga mättekniker som fiberoptik mäta all fältstyrkedata vid och mellan kritiska punkter. Det nämndes också tidigare att fiberoptiska sensorer kan inbäddas i kompositmaterial för att studera interna processer.

Utvecklingsprocessen är klar när produkten har klarat alla tester och börjat leverera till kunder. Men, modern nivå tillåter tillverkare att få de första rapporterna om sina produkter så snart användare börjar använda dem. Omedelbart efter lanseringen av en serieprodukt börjar arbetet med att modernisera det.

Datormodeller och fysiska tester går hand i hand. De kan helt enkelt inte existera utan varandra. Ytterligare utveckling teknik kräver maximal interaktion mellan dessa designverktyg. Investeringar i utvecklingen av fysikforskningsdata kräver en stor initialinvestering, men ”avkastningen” kommer också att vara uppmuntrande. Men tyvärr försöker de flesta utvecklare att få fördelar här och nu och bryr sig inte alls om långsiktiga utsikter, vars fördelar som regel är mycket större.

De som vill ge ett långsiktigt perspektiv för sina produkter kommer att sträva efter att implementera mer innovativa och tillförlitliga metoder och produkttestelement, såsom fiberoptiska mätningar. Kombinationen av datormodellering och fysisk testningsteknik kommer bara att bli starkare i framtiden, eftersom de kompletterar varandra.

, astrofysik, mekanik, kemi, biologi, ekonomi, sociologi, meteorologi, andra vetenskaper och tillämpade problem inom olika områden inom radioelektronik, maskinteknik, fordonsindustri etc. Datormodeller används för att få ny kunskap om det modellerade objektet eller för en ungefärlig bedömning av beteendet hos system som är för komplexa för analytisk forskning.

Konstruktionen av en datormodell baseras på abstraktion från fenomenens eller det studerade originalobjektets specifika natur och består av två steg - först skapandet av en kvalitativ och sedan en kvantitativ modell. Datorsimulering, å andra sidan, består i att utföra en serie beräkningsexperiment på en dator, vars syfte är att analysera, tolka och jämföra simuleringsresultaten med det verkliga beteendet hos objektet som studeras och om nödvändigt ytterligare förfina modellen etc.

De viktigaste stadierna av datormodellering inkluderar:

Gör skillnad mellan analytisk modellering och simuleringsmodellering. I analytisk modellering studeras matematiska (abstrakta) modeller av ett verkligt objekt i form av algebraiska, differentiella och andra ekvationer, samt tillhandahåller implementeringen av ett entydigt beräkningsförfarande som leder till deras exakt lösning... I simuleringsmodellering undersöks matematiska modeller i form av en algoritm (er) som återger funktionen hos systemet som studeras genom sekventiell körning ett stort antal elementära operationer.

Praktisk användning

Datormodellering används för ett brett spektrum av uppgifter, till exempel:

  • analys av spridningen av föroreningar i atmosfären
  • utformning av bullerbarriärer för att bekämpa buller
  • fordonskonstruktion
  • flygsimulatorer för pilotutbildning
  • väderprognos
  • emulering av andra elektroniska enheter
  • prognoser på finansmarknaderna
  • undersökning av beteenden hos byggnader, konstruktioner och delar under mekanisk belastning
  • förutsägelse av styrkan hos strukturer och mekanismer för deras förstörelse
  • design produktionsprocesssåsom kemiska
  • strategisk ledning av organisationen
  • beteendeforskning hydrauliska system: oljeledningar, vattenledningar
  • simulering av robotar och automatiska manipulatorer
  • modellering av scenariovarianter av stadsutveckling
  • modellering av transportsystem
  • simulerade krocktester
  • modellera resultaten av plastikkirurgi

Olika tillämpningsområden för datormodeller har olika krav på tillförlitligheten för de resultat som erhålls med deras hjälp. Modellering av byggnader och flygplansdelar kräver hög noggrannhet och tillförlitlighet, medan modeller för utveckling av städer och socioekonomiska system används för att uppnå ungefärliga eller kvalitativa resultat.

Datorsimuleringsalgoritmer

  • Komponentkedjemetod
  • Metod för statlig variabel

se även

Länkar


Wikimedia Foundation. 2010.

Se vad "Datorsimulering" är i andra ordböcker:

    DATORMODELLERING - Helt bokstavligt - att använda en dator för att simulera något. Vanligtvis modelleras en persons tänkande eller beteende. Det vill säga försök görs för att programmera datorn så att den fungerar på samma sätt som ... Ordbok inom psykologi

    Modellera forskning av kunskapsobjekt på deras modeller; konstruktion och studier av modeller av verkliga objekt, processer eller fenomen för att få förklaringar av dessa fenomen, samt för att förutsäga intressanta fenomen ... ... Wikipedia

    Datorvision är teorin och tekniken för att skapa maskiner som kan upptäcka, spåra och klassificera objekt. hur vetenskaplig disciplin, datorsyn hänvisar till teorin och tekniken för att skapa konstgjorda system, ... ... Wikipedia

    Social modellering - en vetenskaplig metod för att känna igen sociala fenomen och processer genom att återge deras egenskaper på andra objekt, det vill säga modeller som är speciellt skapade för detta ändamål. Behovet av M. s. på grund av det nyligen ökade behovet ... ... Sociologisk referensbok

    Avsnitt av en simulerad volym med en tjocklek av 15 Mpc / h i det moderna universum (redshift z \u003d 0). Densiteten hos mörk materia visas med bra ... Wikipedia

    M. är en imitation av naturliga situationer, med en svärm av människor, helst bör bete sig som om det vore en verklig situation. Fördelen med modellen är att den låter motivet reagera på situationen utan faror ... ... Psykologisk uppslagsverk

    Begäran "Programvara" omdirigeras här. Centimeter. också andra betydelser. Programvara (uttalsprogramvara rekommenderas inte, mer exakt, rekommenderas inte) tillsammans med hårdvara, den viktigaste komponenten i information ... Wikipedia

    Programvaruutveckling Programvaruutveckling Process Process Steg Analys | Design | Genomförande | Testning | Genomförande | Underhålla smidiga modeller / metoder | Renrum | Iterativ | Scrum | RUP | Läkare Utan Gränser | Spiral | ... Wikipedia

    Modellering - (militär), en metod för teoretisk eller teknisk forskning av ett objekt (fenomen, system, process) genom att skapa och studera dess analog (modell), för att få information om riktigt system... M. kan vara fysisk, logisk matematisk ... ... Frontier Dictionary

    Datorsimulering är en av effektiva metoder studera komplexa system. Datormodeller är lättare och mer praktiska att studera på grund av deras förmåga att genomföra det så kallade. beräkningsexperiment, i fall där verkliga experiment ... ... Wikipedia


Modelleringsmetoden som en vetenskaplig forskning började tillämpas under antiken och fångade gradvis nya vetenskapliga kunskapsområden: teknisk design, konstruktion och arkitektur, astronomi, fysik, kemi, biologi och slutligen informationsteknik. Modelleringsmetoden har länge utvecklats oberoende av separata vetenskaper. Frånvarande ett system begrepp, enhetlig terminologi. Började gradvis inse rollen som modellering som universell metod vetenskaplig kunskap.

Termin modellanvänds ofta inom olika områden av mänsklig aktivitet och har många semantiska betydelser.

En modell är ett sådant materiellt eller mentalt föreställt objekt som i forskningsprocessen ersätter det ursprungliga objektet så att dess direkta studie ger ny kunskap om det ursprungliga objektet. Under modelleringprocessen att bygga, lära sig och tillämpa modeller förstås. Det är nära relaterat till kategorier som abstraktion, analogi, hypotes etc. Modelleringsprocessen innefattar nödvändigtvis konstruktionen av abstraktioner, och slutsatser genom analogi, och konstruktionen av vetenskapliga hypoteser.

Huvuddraget med modellering är att det är en metod för indirekt kognition som använder ersättningsobjekt. Modellen fungerar som ett slags kognitivt verktyg som forskaren lägger mellan sig själv och objektet och med hjälp av vilket han studerar objektet av intresse. Det är denna egenskap hos modelleringsmetoden som bestämmer de specifika formerna för att använda abstraktioner, analogier, hypoteser, andra kategorier och metoder för kognition.

Behovet av att använda modelleringsmetoden bestäms av det faktum att många objekt (eller problem relaterade till dessa objekt) är direkt utredda eller helt omöjliga, eller den här forskningen kräver mycket tid och pengar.

Modelleringsprocessen innehåller tre element:

1) ämne (forskare),

2) forskningsobjektet,

3) en modell som förmedlar förhållandet mellan det kännande ämnet och det kogniserade objektet.

Låt det finnas eller det är nödvändigt att skapa något objekt A. Vi konstruerar (materiellt eller mentalt) eller hittar i den verkliga världen ett annat objekt B - modellen för objekt A. Fasen av att bygga en modell förutsätter närvaron av viss kunskap om originalföremål. Modellens kognitiva förmåga bestäms av det faktum att modellen återspeglar alla väsentliga egenskaper hos det ursprungliga objektet. Frågan om nödvändigheten och en tillräcklig grad av likhet mellan originalet och modellen kräver en specifik analys. Uppenbarligen förlorar modellen sin betydelse både när det gäller identitet med originalet och i fallet med en alltför stor skillnad från originalet i alla väsentliga avseenden.

Således utförs studien av vissa sidor av det modellerade föremålet på bekostnad av att vägra att reflektera andra sidor. Därför ersätter alla modeller originalet endast i strikt begränsad mening. Av detta följer att för ett objekt kan flera "specialiserade" modeller byggas som fokuserar på vissa aspekter av objektet som studeras eller karakteriserar objektet med varierande detaljeringsgrad.

Figur: 1 - Stadier av datormodellering

Stegen för datormodellering kan representeras i form av ett diagram (fig. 1).

Modellering börjar med studiet. I det första steget bildas lagar som styr forskning, information separeras från ett verkligt objekt, viktig information bildas och obetydlig information kastas. Omvandlingen av information bestäms av det problem som ska lösas. Information som är viktig för en uppgift kanske inte är nödvändig för en annan. Förlusten av väsentlig information leder till ett felaktigt beslut eller tillåter inte alls att få ett beslut. Att redovisa irrelevant information orsakar onödiga svårigheter och ibland skapar oöverstigliga hinder på vägen till en lösning. Övergången från ett verkligt objekt till information om det är meningsfullt endast när uppgiften är inställd. Samtidigt förfinas formulering av problemet när objektet studeras. Således, i det första steget, sker processerna för målmedveten studie av objektet och klargörande av problemet parallellt och oberoende av varandra. Också i detta skede förbereds information om objektet för bearbetning på datorn. En så kallad formell modell av fenomenet konstrueras som innehåller:

    en uppsättning konstanter, konstanter som kännetecknar det modellerade objektet som helhet och dess beståndsdelar, så kallade modellens statistiska eller konstanta parametrar;

    uppsättning variabler, genom att ändra värdet på vilket du kan styra modellens beteende, så kallade dynamiska eller kontrollparametrar;

    formler och algoritmer som förbinder värdena i vart och ett av tillstånden för det modellerade objektet;

    formler och algoritmer som beskriver processen att ändra tillstånd för det modellerade objektet.

I det andra steget implementeras den formella modellen på en dator, lämplig programvara väljs för detta, en algoritm för att lösa problemet byggs, ett program skrivs som implementerar denna algoritm, sedan felsökas det skriftliga programmet och testas på speciellt förberedd testmodeller. Testning är processen att köra ett program för att identifiera fel. Att montera en testmodell är en slags konst, även om vissa grundläggande testprinciper har utvecklats och tillämpats framgångsrikt för detta. Testning är en destruktiv process, så testet anses vara framgångsrikt om ett fel hittas. Det är ofta möjligt att kontrollera att en datormodell överensstämmer med originalet, att kontrollera hur bra eller dåligt modellen återspeglar de grundläggande egenskaperna hos ett objekt, med hjälp av enkla modellexempel, när simuleringsresultatet är känt i förväg.

I det tredje steget, som arbetar med en datormodell, utför vi ett beräkningsexperiment direkt. Låt oss undersöka hur vår modell kommer att fungera i ett visst fall, med vissa uppsättningar dynamiska parametrar, vi försöker förutsäga eller optimera något beroende på uppgiften.

Resultatet av ett datorexperiment blir informationsmodell fenomen, i form av grafer, beroende av vissa parametrar på andra, diagram, tabeller, demonstration av fenomenet i real eller virtuell tid, etc.

Modellering är en cyklisk process. Detta innebär att den första fyrstegscykeln kan följas av en andra, tredje osv. Samtidigt utvidgas och förfinas kunskapen om objektet som studeras och den ursprungliga modellen förbättras gradvis. Nackdelar som upptäcktes efter den första modelleringscykeln, orsakade av liten kunskap om objektet och fel i att bygga modellen, kan korrigeras i efterföljande cykler. Således har modelleringsmetoden stora möjligheter för självutveckling.

Datormodellering, som framkom som ett av områdena för matematisk modellering med utvecklingen av informationsdatorteknik, har blivit ett oberoende och viktigt användningsområde för datorer. För närvarande är datormodellering inom vetenskaplig och praktisk forskning en av de viktigaste metoderna för kognition. Idag är det omöjligt att lösa stora vetenskapliga uppgifter... En teknik för studier av komplexa problem har utvecklats, baserad på konstruktion och analys av en matematisk modell av objektet som studeras med hjälp av datorteknik. Denna forskningsmetod kallas beräkningsexperiment. Beräkningsexperimentet används i nästan alla vetenskapsgrenar - inom fysik, kemi, astronomi, biologi, ekologi, även i sådana rent humanitära vetenskaper som psykologi, lingvistik och filologi. Att genomföra ett beräkningsexperiment har ett antal fördelar jämfört med det så kallade naturliga experimentet:

    ingen komplicerad laboratorieutrustning krävs för ett beräkningsexperiment;

    betydande minskning av tiden som spenderas på experimentet;

    möjligheten till fri kontroll av parametrar, deras godtyckliga förändring, upp till att ge dem overkliga, otroliga värden;

    möjligheten att genomföra ett beräkningsexperiment där ett fullskaligt experiment är omöjligt på grund av det fenomen som studeras i rymden (astronomi) eller på grund av dess betydande tidsförlängning (biologi) eller på grund av möjligheten att göra irreversibla förändringar i processen som studeras.

I dessa fall används datormodellering. Datormodellering används också ofta för utbildning och utbildning. Datormodellering är det mest adekvata tillvägagångssättet för att studera ämnen i naturvetenskapscykeln, studiet av datormodellering ger stora möjligheter att förstå sambandet mellan datavetenskap och matematik och andra vetenskaper - naturliga och sociala. Läraren kan använda färdiga datormodeller för att demonstrera det studerade fenomenet, oavsett om det rör sig om astronomiska föremål eller rörelse av atomer eller en modell av en molekyl eller tillväxten av mikrober etc. Läraren kan också pussla eleverna med att utveckla specifika modeller, modellera en specifikt fenomen kommer studenten inte bara att behärska ett specifikt utbildningsmaterial utan också förvärva förmågan att ställa problem och uppgifter, förutsäga forskningsresultat, göra rimliga bedömningar, lyfta fram de viktigaste och sekundära faktorerna för att bygga modeller, välja analogier och matematiska formuleringar, använda en dator för att lösa problem, analysera beräkningsexperiment. Användningen av datormodellering i utbildningen gör det således möjligt att föra utbildningsaktivitetsmetoderna närmare forskningsarbetets metodik.

Begreppet modellering är ett mycket brett begrepp, det är inte begränsat till enbart matematisk modellering. Ursprunget till modellering finns i det avlägsna förflutna. Hällristningarna av en mammut genomborrad med ett spjut på grottväggen kan betraktas som en modell för en framgångsrik jakt som skapats av en gammal konstnär.

Element av modellering är ofta närvarande i barnspel, barnens favoritfördriv är att modellera objekt och relationer från vuxnas liv med improviserade medel. Barn växer upp, mänskligheten växer upp. Mänskligheten lär sig världen runt, modellerna blir mer abstrakta, förlorar sin yttre likhet med verkliga föremål. Modellerna återspeglar de djupa mönster som etablerats som ett resultat av målinriktad forskning. Ett brett utbud av objekt kan fungera som modeller: bilder, diagram, kartor, grafer, datorprogram, matematiska formler etc. Om vi \u200b\u200bersätter ett verkligt objekt med matematiska formler - låt oss säga, enligt Newtons andra lag, beskriver vi kroppens rörelse med ett system av icke-linjära ekvationer, eller enligt lagen om värmeledning beskriver vi processen för värmeutbredning med en andra ordningens differentiella ekvation - då pratar vi om matematisk modellering, om vi ersätter det verkliga objektet med ett datorprogram - om datormodellering.

Men vad som än fungerar som en modell, processen för att ersätta ett verkligt objekt med ett modellobjekt spåras ständigt för att studera ett verkligt objekt eller överföra information om egenskaperna hos ett verkligt objekt. Denna process kallas modellering. Objektet som byts ut kallas originalet och ersättningen kallas modellen (fig. 2).

Fikon. 2 - Modelleringsmodeller







2021 gtavrl.ru.