Hjärnan är som en dator: dålig på matte, bra på allt annat. Varför kallar forskare den mänskliga hjärnan för en biologisk dator?


Den centrala idén med den berömda Ray Kurzweils verk är artificiell intelligens, som så småningom kommer att dominera alla områden i människors liv. I sin nya bok, The Evolution of the Mind, avslöjar Kurzweil de oändliga möjligheterna med omvänd konstruktion av den mänskliga hjärnan.

I samma artikel gjorde Turing ytterligare en överraskande upptäckt om olösliga problem. Olösliga problem är de som är väl beskrivna av en enda lösning (som kan visas att existera), men (som också kan visas) inte kan lösas av någon Turing-maskin (det vill säga av ingen maskin alls). Idén om förekomsten av sådana uppgifter motsäger i grunden det koncept som hade formats i början av 1900-talet. dogmen att alla problem som kan formuleras är lösbara. Turing visade att antalet olösbara problem inte är mindre än antalet lösbara problem. 1931 kom Kurt Gödel till samma slutsats med sin "ofullständighetsteorem". En sådan märklig situation: vi kan formulera ett problem, vi kan bevisa att det har en unik lösning, men samtidigt vet vi att vi aldrig kommer att kunna hitta den här lösningen.

Turing visade att datorer fungerar på en mycket enkel mekanism. Eftersom en Turing-maskin (och därmed vilken dator som helst) kan bestämma sin nästa funktion baserat på de resultat den tidigare har erhållit, kan den fatta beslut och skapa hierarkiska informationsstrukturer av vilken komplexitet som helst.

1939 designade Turing den elektroniska kalkylatorn Bombe för att hjälpa till att dechiffrera meddelanden skrivna av tyskarna på kodningsmaskinen Enigma. År 1943 hade Turings team av ingenjörer färdigställt Colossus, ibland kallad historiens första dator. Detta gjorde det möjligt för de allierade att dechiffrera meddelandena som skapades av den mer komplexa versionen av Enigma. Bombe- och Colossus-maskinerna var designade för en enda uppgift och kunde inte programmeras om. Men de utförde sin funktion briljant. Man tror att de allierade, delvis tack vare dem, kunde förutse tyskarnas taktik under hela kriget, och Royal Air Force of Great Britain i slaget om Storbritannien kunde besegra Luftwaffe-styrkorna som överträffade dem med tre gånger .

Det var på denna grund som John von Neumann skapade den moderna arkitekturens dator, vilket återspeglar den tredje av informationsteorins fyra viktigaste idéer. Under de nästan sjuttio år som har gått sedan dess har kärnan i denna maskin, kallad "von Neumann-maskinen", förblivit praktiskt taget oförändrad, vare sig det är i mikrokontrollern i din tvättmaskin eller i den största superdatorn. I en artikel publicerad den 30 juni 1945 med titeln "The First Draft of a Report on the EDVAC" skisserade von Neumann de huvudidéer som har styrt utvecklingen av datavetenskap sedan dess. Von Neumann-maskinen har en central processor där aritmetiska och logiska operationer utförs, en minnesmodul som lagrar program och data, massminne, en programräknare och in-/utgångskanaler. Även om artikeln var avsedd för internt bruk som en del av projektet, för skaparna av datorer, har den blivit en bibel. Så kan ibland en enkel rutinrapport förändra världen.

Turing-maskinen var inte designad för praktiska ändamål. Turings satser handlade inte om effektiviteten av problemlösning, utan beskrev snarare mängden problem som teoretiskt kunde lösas av en dator. Tvärtom, von Neumanns mål var att skapa konceptet med en riktig dator. Hans modell ersatte Turings enbitssystem med ett multi-bitars (vanligtvis multipel av åtta bitar) system. Turing-maskinen har ett sekventiellt minnesband, så program tar väldigt lång tid att flytta bandet fram och tillbaka för att skriva och hämta mellanresultat. Tvärtom, i von Neumann-systemet nås minnet på ett godtyckligt sätt, vilket gör att du omedelbart kan hämta all data du behöver.

En av von Neumanns nyckelidéer är konceptet med ett lagrat program, som han utvecklade tio år innan datorn byggdes. Kärnan i konceptet är att programmet lagras i samma RAM-minnesmodul som data (och ofta även i samma minnesblock). Detta gör att datorn kan programmeras om för att lösa olika problem och skapa självmodifierande kod (när det gäller brännare), vilket ger möjlighet till rekursion. Fram till den tiden skapades nästan alla datorer, inklusive Colossus, för att lösa specifika problem. Konceptet med ett lagrat program gjorde det möjligt för datorn att bli en verkligt universell maskin, motsvarande Turings idé om universaliteten av maskinberäkning.

En annan viktig egenskap hos en von Neumann-maskin är att varje instruktion innehåller en operationskod som definierar en aritmetisk eller logisk operation och adressen till operanden i datorns minne.

Von Neumanns koncept med datorarkitektur återspeglades i EDVAC-projektet, där han arbetade med Presper J. Eckert och John Mauchly. EDVAC började fungera först 1951, när andra datorer med lagrade program redan fanns, såsom Manchester Small Experimental Machine, ENIAC, EDSAC och BINAC, alla influerade av von Neumanns tidning och med bidrag från Eckert och Mauchly. Von Neumann var också involverad i några av dessa maskiner, inklusive den senaste versionen av ENIAC, som använde principen för lagrat program.

Datorn von Neumann hade flera föregångare, men ingen av dem - med ett oväntat undantag - kan kallas en riktig von Neumann-maskin. 1944 producerade Howard Aiken Mark I, som kunde programmeras om till viss del, men som inte använde ett lagrat program. Maskinen läste instruktioner från ett hålkort och utförde dem omedelbart. Maskinen gav inte heller villkorliga hopp.

1941 skapade den tyske vetenskapsmannen Konrad Zuse (1910–1995) Z-3-datorn. Han läste också programmet från bandet (i detta fall kodat på band) och utförde inte heller villkorliga hopp. Intressant nog fick Zuse ekonomiskt stöd från German Aircraft Institute, som använde den här datorn för att studera flygplansvingfladder. Zuses förslag om att finansiera utbytet av reläer med radiorör fick dock inte stöd av den nazistiska regeringen, som ansåg utvecklingen av datorteknik "utan militär betydelse". Detta, förefaller det mig, i viss mån påverkade krigets utgång.

Faktum är att von Neumann hade en lysande föregångare, och han levde hundra år tidigare! Den engelske matematikern och uppfinnaren Charles Babbage (1791–1871) beskrev sin analysmotor 1837, baserad på samma principer som von Neumann-datorn, och med hjälp av ett lagrat program tryckt på hålkorten i jacquardvävmaskiner. Direktåtkomstmaskinens minne innehöll 1 000 ord med 50 decimaler vardera (motsvarande cirka 21 kilobyte). Varje instruktion innehöll en opcode och ett operandnummer, precis som i moderna datorspråk. Systemet använde inte villkorade hopp och loopar, så det var en riktig von Neumann-maskin. Helt mekaniskt överträffade det tydligen både design- och organisationsförmågan hos Babbage själv. Han skapade delar av maskinen, men fick den aldrig att fungera.

Det är inte säkert känt om pionjärerna inom 1900-talets datoranvändning, inklusive von Neumann, var medvetna om Babbages arbete.

Men skapandet av Babbages maskin markerade början på utvecklingen av programmering. Den engelska författaren Ada Byron (1815–1852), grevinnan av Lovelace, poeten Lord Byrons enda legitima barn, blev världens första datorprogrammerare. Hon skrev program för Babbage's Analytical Engine och felsökte dem i sitt sinne (eftersom datorn aldrig fungerade). Programmerare kallar nu detta övningstabellkontroll. Hon översatte en artikel av den italienske matematikern Luigi Menabrea om den analytiska motorn, och lade till betydelsefulla egna kommentarer och noterade att "den analytiska motorn väver algebraiska mönster, som en jacquardvävstol väver blommor och löv." Hon kan ha varit den första att nämna möjligheten att skapa artificiell intelligens, men hon drog slutsatsen att den analytiska motorn "inte kan uppfinna någonting av sig själv."

Babbages idéer verkar fantastiska, med tanke på den tid då han levde och arbetade. Men i mitten av XX-talet. dessa idéer var praktiskt taget bortglömda (och återupptäcktes först senare). Det var von Neumann som uppfann och formulerade datorns nyckelprinciper i dess moderna form, och det är inte för inte som von Neumann-maskinen fortfarande anses vara huvudmodellen av en dator. Men låt oss inte glömma att von Neumann-maskinen ständigt utbyter data mellan enskilda moduler och inom dessa moduler, så den kunde inte skapas utan Shannons teorem och de metoder som han föreslog för tillförlitlig överföring och lagring av digital information.

Allt detta för oss till den fjärde viktiga idén, som övervinner Ada Byrons slutsatser om datorns oförmåga att tänka kreativt och låter oss hitta nyckelalgoritmerna som används av hjärnan, och sedan tillämpa dem för att förvandla en dator till en hjärna. Alan Turing ställde detta problem i sin uppsats från 1950 "Computing Machines and the Mind", som beskriver det nu välkända Turing-testet för att bestämma AIs närhet till mänsklig intelligens.

1956 började von Neumann förbereda en serie föreläsningar för de prestigefyllda Silliman-läsningarna vid Yale University. Forskaren var redan sjuk i cancer och kunde varken läsa sina föreläsningar eller ens avsluta manuskriptet på grundval av att föreläsningarna skapades. Ändå är detta ofullbordade verk en lysande förutsägelse av vad jag personligen uppfattar som det svåraste och viktigaste projektet i mänsklighetens historia. Redan efter vetenskapsmannens död, 1958, publicerades manuskriptet under titeln "Dator och hjärna". Det hände så att det sista arbetet av en av förra seklets mest lysande matematiker och en av grundarna av datorteknik visade sig vara ägnat åt analys av tänkande. Detta var den första seriösa studien av den mänskliga hjärnan från en matematikers och datavetares perspektiv. Före von Neumann var datateknik och neurovetenskap två separata öar utan någon bro mellan dem.

Von Neumann inleder berättelsen med att beskriva likheterna och skillnaderna mellan datorn och den mänskliga hjärnan. Med tanke på den tid då detta verk skrevs, verkar det förvånansvärt korrekt. Forskaren noterar att utsignalen från neuronen är digital - axonet är antingen upphetsat eller förblir i vila. På den tiden var det långt ifrån självklart att bearbetning av utsignaler kunde göras på ett analogt sätt. Signalbehandling i dendriterna som leder till neuronen och i neuronens kropp är analog, och von Neumann beskrev denna situation med en viktad summa av ingångssignaler med ett tröskelvärde.

Denna modell av neuronernas funktion ledde till utvecklingen av anslutningism och till användningen av denna princip för att skapa både hårdvarudesign och datorprogram. (Som jag beskrev i föregående kapitel skapades det första sådana systemet, nämligen IBM 704-programmet, av Frank Rosenblatt från Cornell University 1957, precis efter att von Neumanns föreläsningsmanuskript blev tillgängligt.) Nu har vi mer komplexa modeller som beskriver kombinationer av ingångssignaler från neuroner, men den allmänna idén om analog signalbehandling genom att ändra koncentrationen av neurotransmittorer är fortfarande sann.

Baserat på konceptet om datorberäkningens universalitet, kom von Neumann till slutsatsen att även med en till synes radikal skillnad i arkitekturen och strukturella enheter i hjärnan och datorn, med hjälp av von Neumann-maskinen, kan vi simulera de processer som sker i hjärna. Det omvända postulatet är dock inte sant, eftersom hjärnan inte är en von Neumann-maskin och inte har något lagrat program (även om vi kan simulera driften av en mycket enkel Turing-maskin i huvudet). Algoritmer eller metoder för hjärnans funktion bestäms av dess struktur. Von Neumann kom till rätt slutsats att neuroner kan lära sig lämpliga mönster baserat på insignaler. Vad som dock inte var känt på von Neumanns tid är att lärande också sker genom att skapa och bryta kopplingar mellan neuroner.

Von Neumann påpekade också att hastigheten för informationsbearbetning av neuroner är mycket låg - cirka hundra beräkningar per sekund, men hjärnan kompenserar för detta genom att samtidigt bearbeta information i många neuroner. Detta är en annan uppenbar men mycket viktig upptäckt. Von Neumann hävdade att alla 10 10 neuroner i hjärnan (denna uppskattning är också ganska korrekt: enligt dagens idéer finns det från 10 10 till 10 11 neuroner i hjärnan) bearbetar signaler samtidigt. Dessutom beräknas alla kontakter (i genomsnitt från 10 3 till 10 4 för varje neuron) samtidigt.

Med tanke på neurovetenskapens primitiva tillstånd vid den tiden är von Neumanns bedömningar och beskrivningar av neuronfunktion anmärkningsvärt korrekta. Jag kan dock inte hålla med om en aspekt av hans arbete, nämligen idén om hjärnans minneskapacitet. Han trodde att hjärnan kommer ihåg varje signal för livet. Von Neumann uppskattade medellivslängden för en person till 60 år, vilket är ungefär 2 x 10 9 sekunder. Om varje neuron tar emot cirka 14 signaler på en sekund (vilket faktiskt är tre storleksordningar lägre än det verkliga värdet), och det finns 10 10 neuroner totalt i hjärnan, visar det sig att hjärnans minneskapacitet är cirka 10 20 bitar. Som jag skrev ovan minns vi bara en liten del av våra tankar och upplevelser, men även dessa minnen lagras inte som bit-för-bit-information av låg komplexitetsnivå (som i en video), utan snarare som en sekvens av bilder av högre ordning.

När von Neumann beskriver varje mekanism i hjärnans funktion, demonstrerar han samtidigt hur en modern dator skulle kunna utföra samma funktion, trots den uppenbara skillnaden mellan hjärna och dator. Hjärnans analoga mekanismer kan modelleras med hjälp av digitala mekanismer, eftersom digitala beräkningar kan modellera analoga värden med vilken grad av noggrannhet som helst (och noggrannheten i överföringen av analog information i hjärnan är ganska låg). Det är också möjligt att simulera den massiva parallelliteten i hjärnans funktion, med tanke på datorernas betydande överlägsenhet i seriell beräkningshastighet (sedan von Neumanns tid har denna överlägsenhet ökat ännu mer). Dessutom kan vi utföra parallell bearbetning av signaler i datorer med hjälp av parallella von Neumann-maskiner – det är så moderna superdatorer fungerar.

Med tanke på människors förmåga att fatta snabba beslut med en så låg hastighet av neuroner, kom von Neumann till slutsatsen att hjärnfunktioner inte kan använda långa sekventiella algoritmer. När den tredje basmannen tar emot bollen och bestämmer sig för att kasta den till första basen istället för andra basen, fattar han det beslutet på en bråkdel av en sekund – under vilken tid varje neuron knappt hinner genomföra flera skjutcykler. Von Neumann kommer till den logiska slutsatsen att hjärnans anmärkningsvärda förmåga beror på att alla 100 miljarder neuroner kan bearbeta information samtidigt. Som jag noterade ovan, gör den visuella cortex komplexa slutsatser i bara tre eller fyra avfyrningscykler av neuroner.

Det är hjärnans avsevärda plasticitet som gör att vi kan lära oss. Datorn har dock mycket mer plasticitet - dess metoder kan ändras helt genom att ändra programvaran. Således kan en dator härma hjärnan, men det omvända är inte sant.

När von Neumann jämförde möjligheterna till massivt parallell hjärnaktivitet med dagens få datorer, verkade det klart att hjärnan hade mycket större minne och snabbhet. Idag har den första superdatorn redan konstruerats, enligt de mest försiktiga uppskattningarna, som uppfyller de funktionskrav som behövs för att simulera den mänskliga hjärnans funktioner (cirka 10 16 operationer per sekund). (Enligt min mening kommer datorer med denna kapacitet i början av 2020-talet att kosta cirka 1 000 dollar.) När det gäller minne har vi kommit ännu längre. Von Neumanns verk dök upp i början av datoreran, men vetenskapsmannen var säker på att vi någon gång skulle kunna skapa datorer och datorprogram som kunde efterlikna den mänskliga hjärnan; det var därför han förberedde sina föreläsningar.

Von Neumann var djupt övertygad om framstegen och dess betydande inverkan på människors liv i framtiden. Ett år efter von Neumanns död, 1957, citerade matematikern Stan Yulam von Neumann som sa i början av 1950-talet att "varje acceleration av tekniska framsteg och förändringar i människors sätt att leva ger intrycket att någon stor singularitet i historien närmar sig. ras bortom vilken mänsklig aktivitet som vi känner den idag inte längre kan fortsätta." Detta är den första kända användningen av ordet "singularitet" för att beskriva mänsklighetens tekniska framsteg.

Von Neumanns viktigaste insikt var att hitta likheter mellan datorn och hjärnan. Observera att en del av det mänskliga intellektet är emotionell intelligens. Om von Neumanns gissning är korrekt, och om man instämmer i mitt påstående att ett icke-biologiskt system som på ett tillfredsställande sätt reproducerar en levande persons intelligens (emotionella och andra) har medvetenhet (se nästa kapitel), måste man dra slutsatsen att mellan kl. en dator (med rätt programvara) och medveten tror att det finns en tydlig likhet. Så, hade von Neumann rätt?

De flesta moderna datorer är helt digitala maskiner, medan den mänskliga hjärnan använder både digitala och analoga tekniker. Analoga metoder kan dock enkelt reproduceras digitalt med vilken grad av noggrannhet som helst. Den amerikanske datavetaren Carver Mead (f. 1934) visade att analoga hjärnmetoder kunde reproduceras direkt i kisel och implementerade detta i form av så kallade neuromorfa chips. Mead har visat att detta tillvägagångssätt kan vara tusentals gånger effektivare än digital simulering av analoga metoder. Om vi pratar om kodning av redundanta neocortex-algoritmer, kanske det är vettigt att använda Meads idé. Ett IBM-forskarteam ledd av Dharmendra Modhi använder chip som efterliknar neuroner och deras kopplingar, inklusive deras förmåga att bilda nya kontakter. Ett av chipsen, kallat SyNAPSE, modulerar direkt 256 neuroner och ungefär en kvarts miljon synaptiska anslutningar. Målet med projektet är att simulera en ny cortex, bestående av 10 miljarder neuroner och 100 biljoner kontakter (motsvarande den mänskliga hjärnan), med användning av endast en kilowatt energi.

För mer än femtio år sedan märkte von Neumann att processerna i hjärnan är extremt långsamma, men de kännetecknas av massiv parallellism. Moderna digitala kretsar fungerar minst 10 miljoner gånger snabbare än hjärnans elektrokemiska switchar. Tvärtom, alla 300 miljoner igenkänningsmoduler i hjärnbarken är aktiva samtidigt, och en quadrillion kontakter mellan neuroner kan aktiveras samtidigt. Därför, för att skapa datorer som på ett adekvat sätt kan efterlikna den mänskliga hjärnan, behövs en lämplig mängd minne och beräkningsprestanda. Det finns inget behov av att direkt kopiera hjärnans arkitektur - detta är en mycket ineffektiv och oflexibel metod.

Vilka bör vara motsvarande datorer? Många forskningsprojekt syftar till att modellera den hierarkiska inlärning och mönsterigenkänning som sker i neocortex. Jag själv gör liknande forskning som involverar hierarkiska dolda Markov-modeller. Enligt mina uppskattningar krävs det cirka 3000 beräkningar för att modellera en igenkänningscykel i en igenkänningsmodul av den biologiska neocortexen. De flesta simuleringar bygger på ett mycket mindre antal beräkningar. Om vi ​​antar att hjärnan utför cirka 10 2 (100) igenkänningscykler per sekund, får vi totalt 3 x 10 5 (300 tusen) beräkningar per sekund för en igenkänningsmodul. Om vi ​​multiplicerar detta antal med det totala antalet igenkänningsmoduler (3 x 10 8 (300 miljoner, enligt mina uppskattningar)), får vi 10 14 (100 biljoner) beräkningar per sekund. Jag ger ungefär samma värde i boken The Singularity is Near. Jag förutspår att en funktionell simulering av hjärnan kräver en hastighet på 10 14 till 10 16 beräkningar per sekund. Hans Moravek uppskattar, baserat på extrapolering från data för initial visuell bearbetning i hela hjärnan, att detta värde är 10 14 beräkningar per sekund, vilket är i linje med mina beräkningar.

Standardmoderna maskiner kan köras i hastigheter upp till 10-10 beräkningar per sekund, men med hjälp av molnresurser kan deras prestanda höjas avsevärt. Den snabbaste superdatorn, den japanska K-datorn, har redan nått en hastighet på 10 16 beräkningar per sekund. Med tanke på den massiva redundansen hos neocortexalgoritmerna kan goda resultat uppnås med hjälp av neuromorfa chips, som i SvNAPSE-tekniken.

När det gäller minneskrav behöver vi cirka 30 bitar (ungefär 4 byte) för varje kontakt med en av de 300 miljoner identifierarna. Om ett genomsnitt av åtta signaler passar varje igenkännare får vi 32 byte per identifierare. Om vi ​​tar hänsyn till att vikten av varje insignal är en byte, får vi 40 byte. Låt oss lägga till 32 byte för nedströmskontakter - och vi får 72 byte. Observera att närvaron av upplänkar och nedlänkar resulterar i ett mycket större antal signaler än åtta, även om vi tar med i beräkningen att många igenkännare använder ett gemensamt, mycket förgrenat system av anslutningar. Till exempel kan hundratals igenkänningsmoduler vara involverade i att känna igen bokstaven "p". Det betyder att tusentals igenkännare på nästa nivå är involverade i att känna igen ord och fraser som innehåller bokstaven "p". Men varje modul som ansvarar för att känna igen "p" upprepar inte detta träd av anslutningar som matar alla nivåer av igenkänning av ord och fraser med "p", alla dessa moduler har ett gemensamt träd av anslutningar.

Ovanstående gäller också för nedströmssignaler: modulen som ansvarar för att känna igen ordet äpple kommer att berätta för alla tusen lägre moduler som ansvarar för att känna igen "e" att bilden "e" förväntas om "a", "p", "p" är redan igenkända. ' och 'l'. Detta länkträd upprepas inte för varje ord eller frasigenkännare som vill informera moduler på lägre nivå om att mönstret "e" förväntas. Detta är ett allmänt träd. Av denna anledning är en genomsnittlig uppskattning av åtta uppströms- och åtta nedströmssignaler för varje igenkännare ganska rimlig. Men även om vi höjer detta värde kommer det inte att förändra slutresultatet mycket.

Så, med hänsyn till 3 x 10 8 (300 miljoner) igenkänningsmoduler och 72 byte minne för varje, får vi att den totala mängden minne bör vara cirka 2 x 10 10 (20 miljarder) byte. Och detta är ett mycket blygsamt värde. Sådant minne ägs av vanliga moderna datorer.

Vi utförde alla dessa beräkningar för en ungefärlig uppskattning av parametrarna. Med tanke på att digitala kretsar är cirka 10 miljoner gånger snabbare än nätverk av neuroner i den biologiska cortex, behöver vi inte reproducera den massiva parallelliteten i den mänskliga hjärnan - en mycket måttlig parallell bearbetning (jämfört med biljoner parallellitet i hjärnan) kommer att vara tillräckligt. Således är de erforderliga beräkningsparametrarna ganska uppnåeliga. Hjärnneuronernas förmåga att koppla om (kom ihåg att dendriter ständigt skapar nya synapser) kan också efterliknas med lämplig programvara, eftersom datorprogram är mycket mer plastiska än biologiska system, som, som vi har sett, är imponerande men har gränser.

Den redundans i hjärnan som krävs för att få oföränderliga resultat kan säkert återskapas i en datorversion. De matematiska principerna för att optimera sådana självorganiserande hierarkiska inlärningssystem är ganska tydliga. Organisationen av hjärnan är långt ifrån optimal. Men det behöver inte vara optimalt – det måste vara tillräckligt bra för att göra det möjligt att skapa verktyg som kompenserar för sina egna begränsningar.

En annan begränsning av den nya cortexen är att den inte har en mekanism för att eliminera eller ens utvärdera motstridiga data; detta förklarar delvis det mycket vanliga ologiska i mänskliga resonemang. För att lösa detta problem har vi en mycket svag förmåga som kallas kritiskt tänkande, men folk använder det mycket mer sällan än de borde. I datorns neocortex kan man tänka sig en process för att identifiera motstridiga data för efterföljande revision.

Det är viktigt att notera att konstruktionen av en hel hjärnregion är lättare än konstruktionen av en enda neuron. Som redan nämnts, på en högre nivå i hierarkin, är modeller ofta förenklade (en analogi med en dator är synlig här). För att förstå hur en transistor fungerar måste du förstå halvledarmaterialens fysik i detalj, och funktionerna hos en enda verklig transistor beskrivs av komplexa ekvationer. En digital krets som multiplicerar två tal innehåller hundratals transistorer, men det räcker med en eller två formler för att skapa en modell av en sådan krets. En hel dator med miljarder transistorer kan modelleras med en uppsättning instruktioner och registerbeskrivningar på flera sidor med text med hjälp av flera formler. Program för operativsystem, språkkompilatorer eller assemblerare är ganska komplexa, men att modellera ett privat program (till exempel ett språkigenkänningsprogram baserat på dolda hierarkiska Markov-modeller) kommer också ner till några sidor med formler. Och ingenstans i sådana program hittar du en detaljerad beskrivning av de fysiska egenskaperna hos halvledare eller ens datorarkitektur.

En liknande princip gäller för hjärnmodellering. En speciell neokortikal igenkänningsmodul som upptäcker vissa oföränderliga visuella mönster (som ansikten), utför ljudfrekvensfiltrering (begränsar insignalen till ett visst frekvensintervall) eller uppskattar den tidsmässiga närheten av två händelser kan beskrivas i mycket färre specifika detaljer fysiska och kemiska interaktioner som styr funktionerna hos neurotransmittorer, jonkanaler och andra delar av neuroner som är involverade i överföringen av en nervimpuls. Även om alla dessa detaljer måste övervägas noggrant innan man går vidare till nästa nivå av komplexitet, kan mycket förenklas när man modellerar hjärnans funktionsprinciper.

<<< Назад
Vidarebefordra >>>

Förra seklet markerade det starkaste språnget i mänsklighetens utveckling. Efter att ha passerat den svåra vägen från primer till Internet har människor inte kunnat lösa huvudgåtan som har plågat de storas sinnen i mer än hundra år, nämligen hur fungerar den mänskliga hjärnan och vad är det kapabel att?

Fram till nu är detta organ fortfarande det mest dåligt studerade, och det var han som gjorde en person till vad han är nu - det högsta evolutionsteget. Hjärnan, som fortsätter att behålla sina hemligheter och mysterier, fortsätter att bestämma en persons aktivitet och medvetande i varje skede av hans liv. Hittills har ingen modern vetenskapsman kunnat reda ut alla de möjligheter som han är kapabel till. Det är därför ett stort antal myter och ogrundade hypoteser är koncentrerade kring ett av vår kropps huvudorgan. Detta kan bara indikera att den mänskliga hjärnans dolda potential ännu inte har utforskats, men för närvarande går dess förmågor utanför gränserna för redan etablerade idéer om dess arbete.


Foto: Pixabay/geralt

Hjärnanordning

Detta organ består av ett stort antal anslutningar som skapar en stabil interaktion mellan celler och processer. Forskare föreslår att om detta samband presenteras som en rak linje, kommer dess längd att vara åtta gånger avståndet till månen.

Massfraktionen av detta organ i den totala kroppsvikten är inte mer än 2%, och dess vikt varierar mellan 1019-1960 gram. Från födelseögonblicket till en persons sista andetag bedriver han oavbruten aktivitet. Därför måste den absorbera 21% av allt syre som ständigt kommer in i människokroppen. Forskare har sammanställt en ungefärlig bild av hjärnans assimilering av information: dess minne kan hålla från 3 till 100 terabyte, medan minnet i en modern dator för närvarande förbättras till en volym på 20 terabyte.

De vanligaste myterna om människans biologiska dator

De neurala vävnaderna i hjärnan dör under organismens liv, och nya bildas inte. Detta är en felaktighet, vars absurditet bevisades av Elizabeth Goode. Nervvävnad och nervceller uppdateras ständigt, och nya kopplingar kommer för att ersätta de döda. Studier har bekräftat att i foci av celler som förstörs av en stroke, kan människokroppen "bygga upp" nytt material.

Den mänskliga hjärnan är öppen endast med 5-10%, alla andra möjligheter är inte inblandade. Vissa forskare förklarade detta med det faktum att naturen, efter att ha skapat en så komplex och utvecklad mekanism, kom med ett skyddssystem för det som skyddade organet från överdriven belastning. Det är inte sant. Det är tillförlitligt känt att hjärnan under all mänsklig aktivitet är 100% involverad, precis vid tidpunkten för varje åtgärd reagerar dess individuella delar i sin tur.

Superkrafter. Vad kan överraska det mänskliga sinnet?

Vissa människor som inte utåt visar tecken på att ha otroliga förmågor kan ha verkligen otroliga förmågor. De förekommer inte hos alla, men forskare säger att regelbunden förbättrad hjärnträning kan utveckla superkrafter. Även om hemligheten med "urval" av personer som kan ha rätt att kallas ett geni ännu inte har avslöjats. Någon vet hur man kompetent tar sig ur svåra situationer, någon på en undermedveten nivå förutser den annalkande faran. Men mer intressant ur vetenskapens synvinkel är följande superkrafter:

  • Förmågan att utföra matematiska operationer av vilken komplexitet som helst utan hjälp av en miniräknare och beräkningar på papper;
  • Förmågan att skapa geniala skapelser;
  • fotografiskt minne;
  • snabbläsning;
  • Psykiska förmågor.

Fantastiska fall av att avslöja den mänskliga hjärnans unika förmågor

Genom historien om mänsklig existens har ett stort antal berättelser dykt upp som bekräftar det faktum att den mänskliga hjärnan kan ha dolda förmågor, anpassa sig till förändrade situationer och flytta vissa funktioner från den drabbade avdelningen till den friska delen.

ekolodssyn. Denna förmåga utvecklas vanligtvis efter synförlust. Daniel Kish har bemästrat tekniken för ekolokalisering som är inneboende i fladdermöss. Ljuden han gör, som att klicka med tungan eller fingrarna, hjälper honom att gå utan käpp.

Mnemonics- en unik teknik som gör att du kan uppfatta och komma ihåg vilken mängd information som helst, oavsett dess natur. Många behärskar det i vuxen ålder, och för amerikanen Kim Peak är detta en medfödd gåva.

framsyntes gåva. Vissa människor hävdar att de kan se framtiden. För tillfället är detta faktum inte helt bevisat, men historien känner till många människor som en sådan förmåga har förhärligat över hela världen.

Fenomen som den mänskliga hjärnan är kapabel till

Carlos Rodriguez förlorade mer än 59 % av sin hjärna vid 14 års ålder efter olyckan, men lever fortfarande ett helt normalt liv.

Yakov Tsiperovich, efter klinisk död och en veckas vistelse i koma, slutade sova, äter lite och åldras inte. Tre decennier har gått sedan dess, och han är fortfarande ung.

Fenias Gage skadades fruktansvärt i mitten av 1800-talet. En tjock kofot gick genom hans huvud och berövade honom en stor del av hjärnan. Medicinen under dessa år var inte tillräckligt avancerad, och läkarna förebådade hans nära förestående död. Men mannen dog inte bara inte, utan behöll också sitt minne och klarhet i medvetandet.

Den mänskliga hjärnan, liksom dess kropp, behöver utsättas för konstant träning. Det kan vara både komplexa, specialdesignade program, såväl som att läsa böcker, lösa pussel och logiska uppgifter. Samtidigt bör man inte glömma mättnaden av detta organ med näringsämnen. Till exempel, HeadBooster http://hudeemz.com/headbooster har många av dem. Men ändå är det bara konstant träning som tillåter hjärnan att hela tiden utvecklas och öka sina förmågor.

Vad är ett biologiskt system?

biologiska systemetär en levande struktur som finns i en för den definierad livsmiljö, med förmåga att utbyta ämnen och energi, samt skydda utbyte och kopiering av information, vilket bestämmer dess funktioner och möjligheten att förbättra sätten att interagera med miljön i för att bevara och överföra information om sig själv.

Strukturen av det biologiska systemet "cell":

1. Informationsblock- en informationskod skriven i form av DNA-molekyler, RNA. I analogi med ett datorprogram är det "förkroppsligade ordet" som bestämmer systemets funktioner och parametrar. Dess författarskap tillhör Skaparen, Livets Källa, Skaparen av allt synligt och osynligt - Gud.
2. Energiblock- programmerade möjligheter att erhålla, omvandla och konsumera energi (energicirkulation). Energi är den kraft som krävs för att upprätthålla den vitala aktiviteten hos de strukturella elementen i systemet och aktivera deras funktioner. Eller, energi är ett kvantitativt mått på interaktionen mellan alla typer av materia och information, vilket orsakar en förändring i deras tillstånd eller struktur.
3. MPT-block(materia, kött, kropp) - en yttre manifestation av informationskoden. Dess funktioner är skydd, bevarande, utbyte av information. Det är en matris för att lagra och kopiera information. Det inkluderar: membran, enzymer, membranreceptorer, membrantransportkanaler, biologiskt aktiva substanser (BAS).

Huvuduppgifterna för det biologiska systemet "cell": bevarande, utbyte, kopiering av information som finns i den.

För att kunna utföra sina uppgifter, i första hand kopiering, måste systemet gå in i och vara i en viss miljö som ger det tillräcklig tillgång på ämnen och energi.
För att reglera de processer som säkerställer bevarande, utbyte och kopiering av information används receptorförmedlarprincipen.

Receptor-mediator princip

Receptor - (av lat. recipere - att ta emot) något materialsystem eller struktur för informationsenergi (IEM-system, struktur) som uppfattar information och ändrar dess tillstånd eller struktur på ett visst sätt som ett resultat av en medlares agerande.

Mediator - (mellanled, sändare) vilket IEM-system eller struktur som helst som är utformat för att överföra viss information för receptorn.

Vi känner till de olika nivåerna av organisation av IEM-system och strukturer - atom, molekyl, komplex molekyl, substans, virus, cell, vävnad, organ, organism, kollektiv, nation, stat, planeten jorden, solsystemet, galaxen, universum.
Olika nivåer av organisation av IEM-system eller strukturer har sina egna mekanismer för receptor-mediator-interaktion. Detta gäller även inter-nivå interaktion.
Studiet av dessa mekanismer, såväl som sökandet efter mediatorer för receptorer och beskrivningen av svaren (förändringar i tillstånd eller struktur) av IEM av system eller strukturer är forskarnas uppgifter.

Typer av interaktion mellan receptorn och mediatorn

1. En viss mediator verkar på en viss receptor i det biologiska systemet, vilket leder till ett visst svar.

2. En viss mediator verkar på receptorer som bestämmer olika svar i det biologiska systemet.

3. Flera mediatorer verkar på en specifik receptor i det biologiska systemet, vilket leder till ett specifikt svar.

4. Flera mediatorer verkar på en specifik receptor, vilket leder till olika reaktioner i det biologiska systemet (interaktion som är karakteristisk för komplexa biologiska system).

Resultatet av interaktionen mellan mediatorn och receptorn är en förändring i systemets tillstånd eller struktur.

Tillståndet för fysiologisk vila- detta är ett tillstånd där ett biologiskt system befinner sig i sin livsmiljö och utför sina uppgifter utan att gå utöver de genomsnittliga statistiska uppgifterna om dess funktionella aktivitet.

De viktigaste mekanismerna för reglering av det biologiska systemets tillstånd

1. Förändring i mängden mediator eller receptor (ökning, minskning)
2. Ändra kvaliteten på en mediator eller receptor genom att ändra deras struktur (förstärkning, försvagning, förstörelse) och, som ett resultat, ändra deras anslutning och informationsöverföring.

I ett biologiskt system kan vilken IEM-struktur som helst vara både en receptor för vissa IEM-strukturer och en mediator för andra. Kontroll över regleringen av ett visst tillstånd i systemet kan uppnås när vi känner till metoderna för påverkan som förändrar kvantiteten och kvaliteten på mediatorn och receptorn som är ansvarig för detta tillstånd.

Möjlighet att ändra cellens tillstånd

Den enda möjligheten att ändra tillståndet och strukturen i det biologiska systemet "Cell" - är att förändra miljöns medlaråtgärd.
En förändring i miljön som säkerställer tillgången på ämnen, energi och information (vatten eller vätska, luft eller gaser, jord eller organiska och oorganiska kemiska element, temperatur, fysikaliska fält, strålning, tryck) leder till en förändring i tillståndet eller strukturen av cellen.

Cellstrukturer som förändras till följd av miljöförändringar.

1. Molekyler av DNA, RNA (källa till information om cellen och kopiering).
2. Cellmembran och organeller (skydd av cellen och inre miljö).
3. Enzymer (regulatorer av metabolismens hastighet, energi, information i cellen).
4. Membranreceptorer (uppfattar information för cellen).
5. Transportkanaler för membran (portar för in- och utträde av ämnen, energi och information).
6. Biologiskt aktiva ämnen (mediatorer - cellprodukter utformade för att överföra information till den yttre och inre miljön).

En förändring av kvaliteten och kvantiteten hos någon av dessa strukturer i rätt riktning uppstår på grund av en viss förändring i flödet av vätska, gas, organiska eller oorganiska kemiska element, förändringar i temperatur, fysikaliska fält, strålning, tryck.


– Hur kom du, en före detta militärläkare, en arrangör med stor erfarenhet, till det teoretiska problemet med strukturen hos en levande varelse?

Var och en av oss i våra tankar har upprepade gånger vänt oss till detta ämne och ofta tvivlat på rättvisan hypoteserspontant utseende av levande och teorier om evolution. För alltid bevarad en känsla av häpnad över datorns "sinne". efter att ha bekantat sig med dess enhet och arbete. En storm av tankar genererades av studiet av det mänskliga genomet och andra organismer, som inte förverkligades. förnimmelser, prognoser och paradoxer. Intryck Efter att ha gått samman inspirerade de mig att läsa biologi igen, sedan datavetenskap, sök tillgängligt utrymme allt som berörde genetik, genomik, gener. insåg snart , Vad cell- och datorarbete utifrån gemensamma informationsregler.

Men det måste bevisas!

Säkert. Först, med hjälp av jämförelser och analogier, såg jag till att cellen har en struktur som är typisk för datorer. Membranet, som ett datorfodral, skyddar det interna innehållet i cellen från yttre påverkan och fungerar som en plats för anslutning av input-out-enheter, vars roll utförs av receptorer. Moderkortets funktion utförs av cytoplasman, som håller cellorganellerna i önskad position och länkar samman dem. Och här är cellens "hjärta" - kärnan, kromosomerna, generna, DNA-tråden i pro-karyoter, som utför huvudfunktionen att bearbeta information, lagra långtids- och operativt minne, som en hårddisk i en teknisk dator . I likhet med bärbara informationsbärare - hårddiskar och disketter, arbetar mobila bärare intensivt i cellen - dessa är RNA, proteiner, prioner. En utmärkande egenskap hos vilken informationsmaskin som helst är klocktillgänglighet och energikälla. I cellen, antalet delningar och tid räkna telomerer, och mitokondrier ger energi i form av ATP. Molekylär elektronik har överträffat vetenskapens biologiska grenar, vilket bekräftar den tidigare förutspådda miniatyriseringen av datorer, möjligheten att använda, på grund av deras struktur och egenskaper, många organiska molekyler, inklusive DNA, som transistorer, utlösare, logiska element och skapande utifrån dem informationsmaskiner. Laboratoriealternativ organisk dator existerar, programvara också obligatoriskt för dem.

Vilka andra fakta vittnar om informationskomponenten i celler?

Det förefaller mig som att det mest tungt vägande argumentet är genomiskt paradox, vars manifestationer fortfarande inte kan förklaras med traditionella metoder. Det visade sig att genstruktur bestämmer inte alltid deras egenskaper. Bestämmelserna "gen - skylt", "gen - fungera", "gen - sjukdom". Samma gen i olika utvecklingsstadier av organismen kan utföra olika funktioner. I gennätverket genens funktion kan skilja sig från funktioner studerat isolerat. Det finns många gener som är "tysta", deras egenskaper är inte kända. Gener som är gemensamma i strukturen kan styra utvecklingen av olika cellvarianter. De mänskliga generna och Drosophila-generna producerar samma signal - en proteinligand för mesodermceller, som kontrollerar bildandet av flugvingar och mänskliga parade lemmar. De inledande stadierna av myogenes utförs av en uppsättning gener som är vanliga i Drosophila, lägre och högre djur och däggdjur, inklusive människor. Antalet och organisationen av HOX-gener på kromosomerna är desamma i nästan alla däggdjur. Samma gen kan koda flera proteiner, och flera gener kan motsvara samma proteinvariant. DNA – duplikationer, vilken roll spelar de och varför skiljer sig schimpansernas och människans arvsmassa så mycket åt utifrån detta? I din recension ("MG", nr 77 - 2005-10-5, s. 14) noteras att hos människor och schimpanser samma gener har olika aktivitet i olika organ. Detta genom olika program, som bestämmer betydande skillnader mellan biologiska arter. Nu om det paradoxala antalet gener och "extra DNA" i olika arter. I en nematod (ca 1 mm stor), gener 19903, in fisk puffer (cirka 10 cm) - 33609, råttor cirka 25 000 och mänsklig- 30 000; respektive icke-kodande DNA ("extra, själviskt, skräp") i % - 25, 16, 75, 97. Ju högre organiserad organism, ju färre gener i dess genom och ju mer icke-kodande del av nukleotiderna, desto mer komplex processer, desto färre gener krävs för att säkerställa liv. Och naturligtvis, enligt genomen, observeras ingen evolutionär serie i utvecklingen av organismer.

I "skräp"-delen av DNA finns det många identiska repeterande sekvenser av nukleotider. Finns det något informationsvärde här?

Antagande baserat på utveckling informationsteknik, lämpligt. Nu är det visat att om på en integrerad krets stämplad mikroprocessorer, platser för informationslagring och andra element datordesigner, då är det prestanda med en minskning av storleken ökar avsevärt. Inget behov av att "gå" långt för information, spendera extra energi. Enorm informationsutrymme DNA kräver gener för att koncentrera sina processorer att arbeta med information, platser för henne lagring,operativ och långsiktigt minne, vilket skulle ge både seriellt och parallellt arbete med analysen av de inkommande information och utveckling av respons beslut och kommandon. Detta uppnår prestanda och redundans i fall att " frilans" situationer. Det är möjligt att nukleotidupprepningar och DNA-dupliceringar på något sätt är specialiserade för informationsfunktioner.

Och vilka är de väsentliga skillnaderna mellan biologiska datorer och tekniska?

- Hög tillförlitlighet tack vare stabilitet organiska föreningar och närvaron flernivåskyddssystem från media skada och förvrängning av ens egen information. DNA är den mest motståndskraftiga mot pyrande molekyl, och apoptos är mest effektiv försvarsmekanism. Enorm prestanda, beräknat i biljoner operationer per sekund. Organiska molekyler kan omedelbart ändra sitt tillstånd under påverkan av laser, synliga delar av ljusspektrumet, ljud, radiovågor. Det är förmodligen ingen slump att de tjugo aminosyrorna som är involverade i konstruktionen av proteiner "kvarstår" i livet, när aminogruppens position i kolkedjan förändras kan funktionen hos det binära beräkningssystemet vara tillgänglig för dem. Vissa molekyler kan generera laserskott, utföra funktionerna hos kromatoforer, lysdioder och signalomvandlare. Genom lyser, gör ljud, genererar radiovågor vissa intervall som registreras av enheter. Ovanstående resonemang gjorde det möjligt att ge en encellig organism och en cell informationsdefinition. Dessa är ekologiska stängda informationsmaskiner arbetar utifrån ett komplex programvara, bestämma deras strukturella och funktionella organisation, arttillhörighet, målmekanismer homeostas, reproduktion av sitt eget slag, Med autonom strömförsörjning och tidsräknare. Jag undviker termen elektronisk dator, eftersom i cellen vid bearbetning av information elektronflöde inte använt och det är det inte datoranvändning, a logisk bil.

Men jag träffade termen "biodator" långt innan din publicering.

Ja, men i väldigt lösa tolkningar. Allt som inte passar in i ovanstående definition är inte en biodator, inklusive virus. I början av datoråldern högorganiserade organismer kallades biodatorer. Då övervägde företrädare för vissa yrken en dator hjärna, med utvecklingen av genetik och genomik - de bytte till genomet, de pratade till och med om DNA-datorer. I dag specialister, utforskar vattens informationsegenskaper, kalla henne " levande biodator". Vatten, även om det är obligatoriskt, är bara en integrerad del av det biologiska dator. I celler var informationsprocesser råder, särskilt i neuroner, vatten upp till 90 %, i hår och spikar det är bara 8-10%.

Men vad sägs om organismer eller hjärna ?

Men flercelliga organismer består av biodatorer, ordnade och förenade enligt principerna informationsnätverk.

Men hur gör biologiska datorer, komponenter organism ?

Produkten av informationsåldern kommer till undsättning igen - det konstgjorda globalt informationsnätverk Internet. Huvudvillkoret för nätverkets funktionär en kompatibilitet Allt datorerTekniska parametrar och programvara. I varje organism är cellerna identiska i struktur och har exakt samma programvara. Undantaget är erytrocyter, de har ingen kärna och berövas informationsfunktioner. Nätverket behöver också en mekanism för att upprätthålla ordning och organisation, som tillhandahålls av en rad teknologier och protokoll Internet. Låt oss bara nämna några av dem. Transmission Control Protocol (TCR) - du kommer inte att vara inloggad, inte registrera sig hos en leverantör.Protokoll enat informationswebb- i leva som protokoll och program borde vara mycket större med tanke på komplexitet, process mångsidighet och kvantitet utgör ett nätverk biologisk datorer. Person det är 14 biljoner biodatorer, en och en halv gånger mer än stjärnor i två galaxer sätta ihop - Vintergatan och Andromeda nebulosor. huvud funktion Internet - Det servrar på olika platser i nätverket. Dessa är samma datorer, endast avsett för att serva andra datorer. De har sina program, liknar neuroner med sin fantastiska funktionalitet. Människor har 20 miljarder av dem. Desto högre organismen är organiserad desto högre funktionell möjligheter neuroner. Till exempel i en nematod, var och en nervcell per 5 somatiska celler mänsklig för 5000. Modem med motsvarande program tillåta åtkomst till nätverket, träning fjärranslutning,filuppladdning från en dator till nätverket och tillbaka - från nätverket v dator, tillhandahålla registrering, protokollförändring och andra funktioner. Utan tvekan är detta en analog av synapser, som ger kontakter mellan celler. Informationssystem person för idag teknikens höjdpunkt . Internet i jämförelse med det är i ett embryonalt tillstånd, dess ålder ca 40 år gammal. Den största skillnaden är en enorm skillnad i antalet och kraften hos komponenterna datorer, på svårigheter, skiktning och mångfald program. Det anses att för utveckling av informationsnätverk det finns bara två restriktioner : datorhastighet och genomströmning kanaler som förbinder dem. Så att utvecklingsmöjligheter för Internet enorm. Men idag ingen av datorerna, inte heller informationssystemet skapad av människan, oförmögen att upprepa arbetet biologisk dator och den enklaste flercelliga organismen.

Vad är huvudsakliga slutsatser från ditt resonemang?

Det är förbjudet att känna de levande utan att studera dess informationskomponent är det också meningslöst att leta efter levande varelser och vital aktivitet utanför cellen. Informationsinformation komponent Levande oförändrad, genom från organismer stabil och har flera skydd. Variation i genom och program skulle hota döden inte bara individer, men också arter. Evolution hur den tolkar klassisk biologi, kan inte vara mutationer ärvs inte, en " behandlas"levande informationssystem . Alla organismer inte anpassa sig, utan stå emot miljöfaktorer och kan lära av sin egen erfarenhet. Både organismer och deras reproduktiv Förmågor programmerades, skapades, uppstod samtidigt. Detta är en av de många prediktiva målcykliska processerna som är inneboende i levande varelser. Det eviga problemet" höna" och " ägg"finns helt enkelt inte. Utvecklingstakt informationsteknik, särskilt molekylär elektronik, överraskning - i 60 år från datorsalar till molekylär dator. Forskare är förvånade över de korta tidsperioderna med evolutionära standarder, under vilka biologiska arter blev mer komplexa, oförklarliga mutationer. Genom att skapa informationsenheter, h mänskligheten, kanske, upprepas redan av någon passerade e vägen .Informationskomponent som bas för varje levande organism existerar! Men idag finns det ingen kunskapsgren vars metodik, mål och metoder för forskning kunde hittas nyckel- till informationsdelen och informationsprocesser i det levande. Det är dags att behandla en mycket vanlig civilisationens kroniska sjukdom - "flöde " ensidighet smala specialister! Vi behöver informationsbiologi som en ny integrationsvetenskap som skulle införliva modern informativt, teknisk, biologisk, medicinsk kunskap, prestationerfysik, kemi och ställ in uppgiften att känna till de levandes informationsväsen . Här ligger den hemligaste av hemligheter och den mest mystiska av mysterierna i vår världs struktur!

Genom att skapa informationsenheter, h mänskligheten, kanske, upprepas redan av någondistans rest ........

Ett organ som koordinerar och reglerar alla vitala funktioner i kroppen och kontrollerar beteendet. Alla våra tankar, känslor, förnimmelser, önskningar och rörelser är kopplade till hjärnans arbete, och om det inte fungerar går en person in i ett vegetativt tillstånd: förmågan att utföra alla handlingar, förnimmelser eller reaktioner på yttre påverkan går förlorad .

Datormodell av hjärnan

University of Manchester har börjat bygga den första datorn av en ny typ, vars design efterliknar strukturen i den mänskliga hjärnan, rapporterar BBC. Kostnaden för modellen kommer att vara 1 miljon pund.

En dator byggd enligt biologiska principer, enligt professor Steve Furber, bör visa betydande stabilitet i drift. "Vår hjärna fortsätter att fungera trots det ständiga felet hos nervcellerna som utgör nervvävnad", säger Furber. "Denna egenskap är av stort intresse för designers som är intresserade av att göra datorer mer pålitliga."

hjärnans gränssnitt

För att lyfta ett glas flera fötter med enbart mental energi, var trollkarlar tvungna att öva flera timmar om dagen.
Annars skulle hävstångsprincipen lätt kunna pressa hjärnan genom öronen.

Terry Pratchett, The Color of Magic

Uppenbarligen bör kronan på människa-maskin-gränssnittet vara möjligheten att styra maskinen med bara en tanke. Och att få data rakt in i hjärnan är redan toppen av vad virtuell verklighet kan åstadkomma. Denna idé är inte ny och har förekommit i den mest skiftande science fiction-litteraturen i många år. Det finns nästan alla cyberpunkare med direkt koppling till cyberdäck och biosofts. Och kontroll av vilken teknik som helst genom en vanlig hjärnanslutning (till exempel Samuel Delany i romanen "Nova"), och en massa alla möjliga andra intressanta saker. Men fantasy är bra, men vad händer i den verkliga världen?

Det visar sig att utvecklingen av hjärngränssnitt (BCI eller BMI – brain-computer interface and brain-machine interface) är i full gång, även om få människor känner till det. Framgångarna är förstås väldigt långt ifrån vad de skriver om i science fiction-romaner, men ändå är de ganska märkbara. Nu utförs arbetet med hjärn- och nervgränssnitt främst som en del av skapandet av olika proteser och anordningar för att göra livet lättare för delvis eller helt förlamade personer. Alla projekt kan villkorligt delas in i gränssnitt för input (restaurering eller utbyte av skadade sensoriska organ) och output (kontroll av proteser och andra enheter).

I alla fall av direkt datainmatning är det nödvändigt att utföra en operation för att implantera elektroder i hjärnan eller nerverna. Vid abstinens kan du klara dig med externa sensorer för att ta ett elektroencefalogram (EEG). EEG är dock ett ganska opålitligt verktyg, eftersom skallen kraftigt försvagar hjärnströmmarna och endast mycket starkt generaliserad information kan erhållas. Vid implantation av elektroder kan data tas direkt från nödvändiga hjärncentra (till exempel motorcentra). Men en sådan operation är en allvarlig fråga, så för närvarande utförs experiment endast på djur.

Faktum är att mänskligheten länge har haft en sådan "enda" dator. Enligt Wired magazines medgrundare Kevin Kelly kan miljontals internetanslutna datorer, mobiltelefoner, handdatorer och andra digitala enheter alla ses som komponenter i en enda dator. Dess centralenhet är alla processorer för alla anslutna enheter, dess hårddisk är hårddiskar och flashenheter från hela världen, och RAM är det totala minnet för alla datorer. Varje sekund bearbetar den här datorn en mängd data som motsvarar all information som finns i Library of Congress, och dess operativsystem är World Wide Web.

Istället för nervcellssynapser använder den funktionellt liknande hyperlänkar. Båda är ansvariga för att skapa associationer mellan nodpunkter. Varje enhet i tankeprocessen, till exempel en idé, växer när fler och fler kopplingar till andra tankar uppstår. Även i nätverket: fler länkar till en viss resurs (nodpunkt) betyder dess större betydelse för datorn som helhet. Dessutom är antalet hyperlänkar på World Wide Web mycket nära antalet synapser i den mänskliga hjärnan. Kelly uppskattar att 2040 kommer planetdatorn att ha datorkraft i proportion till den kollektiva kraften hos hjärnorna hos alla 7 miljarder människor som kommer att befolka jorden vid den tiden.

Men hur är det med den mänskliga hjärnan själv? Långt föråldrad biologisk mekanism. Vår grå substans går i samma hastighet som den allra första Pentium-processorn, en 1993-modell. Med andra ord arbetar vår hjärna med en frekvens på 70 MHz. Dessutom fungerar våra hjärnor enligt den analoga principen, så det kan inte vara fråga om jämförelse med den digitala metoden för databehandling. Detta är huvudskillnaden mellan synapser och hyperlänkar: synapser, som reagerar på sin miljö och inkommande information, förändrar skickligt organismen, som aldrig har två identiska tillstånd. En hyperlänk är å andra sidan alltid densamma, annars börjar problem.

Ändå är det omöjligt att inte inse att vår hjärna är vida överlägsen i effektivitet än alla konstgjorda system skapade av människor. På ett helt mystiskt sätt passar hjärnans gigantiska beräkningsförmågor i vår kranium, väger lite mer än ett kilogram, och samtidigt krävs det bara 20 watt energi för att fungera. Jämför dessa siffror med de 377 miljarder watt som Single Computer för närvarande förbrukar, enligt ungefärliga beräkningar. Detta är för övrigt så mycket som 5% av världens elproduktion.

Bara faktumet med en sådan monstruös strömförbrukning kommer aldrig att tillåta Unified Computer att ens jämföra med den mänskliga hjärnan när det gäller effektivitet. Även år 2040, när datorernas beräkningskraft kommer att bli skyhög, kommer deras strömförbrukning att öka stadigt.

Medvetandets ekologi. Vetenskap och upptäckt: Hur mycket de än försöker, kommer neurovetenskapsmän och kognitiva psykologer aldrig att hitta en kopia av Beethovens femte symfoni i hjärnan, eller kopior av ord, bilder, grammatikregler eller någon annan yttre stimulans. Den mänskliga hjärnan är naturligtvis inte bokstavligen tom. Men den innehåller inte det mesta som folk tycker att den borde – den har inte ens enkla föremål som "minnen".

Oavsett hur mycket de försöker, kommer neurovetare och kognitiva psykologer aldrig att hitta en kopia av Beethovens femte symfoni i hjärnan, eller kopior av ord, bilder, grammatikregler eller någon annan yttre stimuli. Den mänskliga hjärnan är naturligtvis inte bokstavligen tom. Men den innehåller inte det mesta som folk tycker att den borde – den har inte ens enkla föremål som "minnen".

Våra missuppfattningar om hjärnan har djupa historiska rötter, men uppfinningen av datorn på 1940-talet har särskilt förvirrat oss. I mer än ett halvt sekel har psykologer, lingvister, neurofysiologer och andra forskare av mänskligt beteende sagt att den mänskliga hjärnan fungerar som en dator.

För att förstå ytligheten i denna idé, låt oss föreställa oss att hjärnan är en baby.Tack vare evolutionen kommer nyfödda människor, precis som nyfödda av alla andra arter av däggdjur, in i denna värld redo för effektiv interaktion med den. Barnets syn är suddig, men han betalar Särskild uppmärksamhet ansikten och kan snabbt känna igen mammans ansikte bland andra. Han föredrar ljudet av en röst framför andra ljud, han kan skilja ett grundläggande talljud från ett annat. Vi är utan tvekan byggda med social interaktion i åtanke.

En frisk nyfödd har mer än ett dussin reflexer - färdiga reaktioner på vissa stimuli; de behövs för att överleva. Barnet vrider huvudet i riktning mot det som kittlar på kinden och suger på allt som kommer in i munnen. Han håller andan när han dyker ner i vattnet. Han tar tag i saker som hamnar i hans händer så hårt att han nästan hänger på dem.

Kanske viktigast av allt, bebisar kommer till den här världen med mycket kraftfulla inlärningsmekanismer som gör att de snabbt kan förändras så att de kan interagera med världen med ökande effektivitet, även om världen inte är som den de har mött, deras avlägsna förfäder.

Känslor, reflexer och inlärningsmekanismer – allt vi börjar med, och ärligt talat, det finns en hel del av dessa saker när du tänker på det. Om vi ​​inte hade en av dessa möjligheter från födseln, skulle det vara mycket svårare för oss att överleva.

Men det finns några saker vi inte föddes med: information, data, regler, mjukvara, kunskap, lexikon, representationer, algoritmer, program, modeller, minnen, bilder, bearbetning, rutiner, kodare och avkodare, symboler och buffertar är designelementen som tillåter digitala datorer att bete sig på ett sätt som något vettig. Vi föds inte bara inte med det – vi utvecklar det inte i oss själva. Aldrig.

Vi lagrar inte ord eller regler som talar om för oss hur vi ska använda dem. Vi skapar inte visuella projektioner av stimuli, lagrar dem i en korttidsminnesbuffert och överför dem sedan till långtidsminneslagring. Vi hämtar inte information eller bilder och ord från minnesregister. Datorer gör detta, inte organismer.

Datorer bearbetar bokstavligen information— siffror, bokstäver, ord, formler, bilder. Information måste initialt kodas i ett format som datorer kan använda, vilket innebär att den måste representeras som ettor och nollor ("bitar"), som samlas i små block ("bytes"). På min dator, där varje byte innehåller 8 bitar, står några av dem för bokstaven "K", andra för "O" och andra för "T". Således bildar alla dessa bytes ordet "CAT". En enskild bild – säg en bild av min katt Henry på mitt skrivbord – representeras av ett speciellt mönster av en miljon av dessa byte ("en megabyte"), definierade av specialtecken som talar om för datorn att det är en bild och inte ett ord.

Datorer flyttar bokstavligen dessa ritningar från plats till plats i olika fysiska förvaringsfack fördelade inuti elektroniska komponenter. Ibland kopierar de ritningar, och ibland ändrar de dem på en mängd olika sätt - till exempel när vi korrigerar ett fel i ett dokument eller retuscherar ett fotografi.

Reglerna som en dator följer för att flytta, kopiera eller manipulera dessa lager av data lagras också i datorn. Samlade regeluppsättningar kallas "program" eller "algoritmer". En grupp algoritmer som arbetar tillsammans för att hjälpa oss att göra något (som att köpa aktier eller leta upp data online) kallas en "applikation".

Förlåt mig för den här introduktionen till datorernas värld, men jag vill att du är väldigt tydlig: datorer fungerar faktiskt på den symboliska sidan av vår värld. De lagrar och hämtar. De fungerar verkligen. De har fysiska minnen. De är verkligen algoritmdrivna i allt de gör, utan undantag.

Å andra sidan, folk gör inte det - de gjorde aldrig och kommer aldrig att göra det. Med detta i åtanke skulle jag vilja fråga: varför pratar så många forskare om vår mentala hälsa som om vi vore datorer?

I sin bok In Our Own Image (2015), AI-experten George Zarkadakis beskriver sex olika metaforer som människor har använt under de senaste två årtusendena, försöker beskriva mänsklig intelligens.

I den allra första, bibliska, skapades människor av lera och smuts, som sedan den rationella Guden gav sin själ, "förklarade" vårt intellekt - åtminstone grammatiskt.

Uppfinningen av vattenteknik på 300-talet f.Kr ledde till populariseringen av hydrauliska modeller av mänsklig intelligens, idén att de olika vätskorna i vår kropp - den så kallade. kroppsvätskor är relaterade till både fysisk och mental funktion. Metaforen har bevarats i mer än 16 århundraden och har använts i medicinsk praxis hela denna tid.

På 1500-talet utvecklades automatiska mekanismer, drivna av fjädrar och växlar; de inspirerade slutligen dagens ledande tänkare, såsom René Descartes, att anta att människor är komplexa maskiner.

På 1600-talet föreslog den brittiske filosofen Thomas Hobbes att tänkande uppstod från mekaniska vibrationer i hjärnan. I början av 1700-talet ledde upptäckter inom elektricitet och kemi till nya teorier om mänsklig intelligens - och återigen var dessa metaforiska till sin natur. I mitten av samma sekel jämförde den tyske fysikern Hermann von Helmholtz, inspirerad av framstegen inom kommunikation, hjärnan med en telegraf.

Om denna metafor är så dum, varför styr den fortfarande våra sinnen? Vad hindrar oss från att kasta bort det som onödigt, precis som vi kastar en gren som blockerar vår väg? Finns det ett sätt att förstå mänsklig intelligens utan att förlita sig på fiktiva kryckor? Och till vilket pris kommer en så lång användning av detta stöd att kosta oss? Denna metafor inspirerade trots allt författare och tänkare till en enorm mängd forskning inom olika vetenskapsområden under decennierna. Till vilken kostnad?

I klassrummet, i en klass som jag har undervisat många gånger under åren, har jag Jag börjar med att välja en volontär, som jag säger till att dra en endollarssedel på tavlan."Mer detaljer", säger jag. När han är klar täcker jag teckningen med ett papper, tar ur sedeln ur plånboken, klistrar upp den på tavlan och ber eleven att göra om uppgiften. När han eller hon är klar tar jag bort papperslappen från den första teckningen och sedan kommenterar klassen skillnaderna.

Kanske har du aldrig sett en demonstration som denna, eller kanske har du problem med att presentera resultatet, så jag bad Jeannie Hyun, en av praktikanterna vid institutet där jag gör min forskning, att göra två teckningar. Här är en ritning "från minnet" (observera metaforen):

Och här är en teckning hon gjorde med en sedel:

Ginny var precis så förvånad över utgången av ärendet som du kanske är, men det är inte ovanligt. Som du kan se är den icke-fakturerade ritningen fruktansvärd jämfört med den som dras från provet, trots att Ginny har sett dollarsedeln tusentals gånger.

Så vad händer? Har vi inte "laddat ner" till hjärnans "minnesregister" "fantasi" om hur en dollarsedel ser ut? Kan vi inte bara "extrahera" det därifrån och använda det när vi skapar vår ritning?

Naturligtvis inte, och inte ens tusentals år av neurovetenskaplig forskning kommer inte att avslöja idén om en dollarsedel lagrad i den mänskliga hjärnan bara för att den inte finns där.

En betydande mängd hjärnforskning visar att faktiskt många och ibland stora delar av hjärnan ofta är involverade i de till synes mest banala uppgifterna att komma ihåg information.

När en person upplever starka känslor kan miljontals nervceller eldas i hjärnan. Under 2016 genomförde neuroforskaren Brian Levine och hans kollegor vid University of Toronto en studie av överlevande från flygkrasch, och drog slutsatsen att kraschhändelser bidrog till ökad neural aktivitet i "hjärnans amygdala, mediala tinningloben, främre och bakre mittlinjerna." passagerarnas visuella cortex."

Tanken som lagts fram av ett antal forskare att specifika minnen på något sätt lagras i individuella neuroner är absurd; för den delen lyfter detta antagande bara frågan om minne till en ännu mer komplex nivå: hur och var skrivs minnet i slutändan in i en cell?

Så vad händer när Ginny drar en dollarsedel utan att använda ett mönster? Om Ginny aldrig hade sett en sedel tidigare, skulle hennes första teckning förmodligen inte se ut som hennes andra. Det faktum att hon hade sett dollarsedlar förut förändrade henne på något sätt. Faktum är att hennes hjärna förändrades så att hon kunde visualisera sedeln - vilket i huvudsak motsvarar - åtminstone delvis - att återuppleva känslan av att få ögonkontakt med sedeln.

Skillnaden mellan de två skisserna påminner oss om att visualisering av något (vilket är processen att få ögonkontakt med något som inte längre finns framför våra ögon) är mycket mindre exakt än om vi faktiskt såg något. Det är därför vi är så mycket bättre på att lära än att komma ihåg.

När vi återskapar något i minnet(Från latinets re - "igen", och producera - "skapa"), vi måste försöka igen för att uppleva en kollision med ett föremål eller fenomen; men när vi lär oss något behöver vi bara vara medvetna om att vi tidigare har haft erfarenhet av den subjektiva uppfattningen av detta objekt eller fenomen.

Du kanske har något att invända mot detta bevis. Ginny hade sett dollarsedlar tidigare, men hon gjorde inga medvetna ansträngningar för att "komma ihåg" detaljerna. Du kanske hävdar att om hon hade gjort det här, skulle hon ha kunnat rita den andra bilden utan att använda mallen för dollarsedeln. Trots det fanns dock ingen bild av sedeln på något sätt "lagrad" i Ginnys hjärna. Hon har helt enkelt blivit mer beredd att teckna henne i detalj, precis som en pianist genom övning blir skickligare på att spela pianokonserter utan att ladda ner en kopia av noterna.

Från detta enkla experiment kan vi börja bygga grunden för en metaforfri teori om intellektuellt mänskligt beteende – en av de där teorierna om att hjärnan inte är helt tom, men åtminstone fri från belastningen av IP-metaforer.

När vi rör oss genom livet utsätts vi för många saker som händer oss. Särskilt anmärkningsvärt är tre typer av erfarenheter: 1) Vi observerar vad som händer runt omkring oss(hur andra människor beter sig, ljud av musik, instruktioner riktade till oss, ord på sidor, bilder på skärmar); 2) Vi är utsatta för en blandning av mindre incitament(till exempel sirener) och viktiga incitament(uppträdande av polisbilar); 3) Vi straffas eller belönas för att vi beter oss på vissa sätt. atom.

Vi blir mer effektiva om vi ändrar oss enligt denna erfarenhet.- om vi nu kan recitera en dikt eller sjunga en sång, om vi kan följa instruktioner som ges till oss, om vi reagerar på mindre stimuli såväl som viktiga, om vi försöker att inte bete oss på ett sätt som vi blir straffade , och vi beter oss på ett sådant sätt oftare för att få en belöning.

Trots de missvisande rubrikerna har ingen den minsta aning om vilka förändringar som sker i hjärnan efter att vi lärt oss sjunga en sång eller lärt oss en dikt. Men varken sångerna eller dikterna "laddades ner" till våra hjärnor. Det ändrades bara på ett ordnat sätt så att vi nu kan sjunga en sång eller recitera en dikt om vissa villkor är uppfyllda.

När vi blir ombedda att uppträda "dras" varken sången eller dikten från någonstans i hjärnan.- på samma sätt som mina fingrars rörelser inte "utdrags" när jag trummar på bordet. Vi bara sjunger eller berättar – och vi behöver ingen extraktion.

För några år sedan frågade jag Eric Kandel, en neuroforskare från Columbia University som vann ett Nobelpris för att ha identifierat några av de kemiska förändringar som sker i Aplysia (havssnigel) neutronutgångssynapser efter att den lärt sig något, hur lång tid enligt hans åsikt kommer att gå. innan vi förstår mekanismen för hur det mänskliga minnet fungerar. Han svarade snabbt: "Hundra år." Jag tänkte inte fråga honom om han trodde att IP-metaforen bromsade neurovetenskapens framsteg, men vissa neurovetenskapsmän börjar faktiskt tycka det otänkbara, nämligen att metaforen egentligen inte är nödvändig.

Ett antal kognitiva forskare - särskilt Anthony Chemero från University of Cincinnati, författare till 2009 års bok Radical Embodied Cognitive Science - avvisar nu helt uppfattningen att den mänskliga hjärnan fungerar som en dator. Den vanliga uppfattningen är att vi, precis som datorer, förstår världen genom att utföra beräkningar på dess mentala bilder, men Chemero och andra forskare beskriver ett annat sätt att förstå tankeprocessen - de definierar det som en direkt interaktion mellan organismer och deras värld.

Mitt favoritexempel, som illustrerar den enorma skillnaden mellan IP-metoden och det som vissa kallar den "anti-representativa" synen på hur människokroppen fungerar, innehåller två olika förklaringar på hur en basebollspelare lyckas fånga en flygande boll, givna av Michael McBeath, som nu arbetar vid Arizona State University, och kollegor, i en artikel publicerad 1995 i Science.

Enligt IP-metoden måste spelaren formulera en grov uppskattning av de olika initiala förhållandena för bollens flygning - kraften av stöten, banans vinkel och så vidare - och sedan skapa och analysera en intern modell av banan som bollen kommer sannolikt att följa efter, varefter han måste använda denna modell för att kontinuerligt styra och korrigera i tid de rörelser som syftar till att fånga upp bollen.

Allt skulle vara bra och underbart om vi fungerade på samma sätt som datorer, men McBeath och hans kollegor gav en enklare förklaring: för att fånga bollen behöver spelaren bara fortsätta röra på sig så att han hela tiden har en visuell koppling i förhållande till huvudbasen och omgivningen utrymme (tekniskt sett, håll dig till "linjär-optisk bana"). Detta kan tyckas komplicerat, men i själva verket är det extremt enkelt och involverar inga beräkningar, representationer och algoritmer.

Två blivande psykologiprofessorer vid Leeds City University i Storbritannien - Andrew Wilson och Sabrina Golonka - listar bland annat baseballspelareexemplet som kan uppfattas utanför IP-metoden. Under årens lopp har de skrivit på sina bloggar om vad de själva kallar "ett mer sammanhängande, naturaliserat förhållningssätt till den vetenskapliga studien av mänskligt beteende ... går emot den dominerande kognitivistiska neurovetenskapliga strategin."

Detta tillvägagångssätt är dock långt ifrån grunden för en separat rörelse; de flesta kognitivister undviker fortfarande kritik och håller sig till IP-metaforen, och några av världens mest inflytelserika tänkare har gjort storslagna förutsägelser om mänsklighetens framtid som beror på metaforens giltighet.

En av förutsägelserna th - av bland andra futuristen Kurzweil, fysikern Stephen Hawking och neuroforskaren Randall Cohen - konstaterar att eftersom det mänskliga sinnet är tänkt att agera som datorprogram, kommer det snart att vara möjligt att ladda ner ett mänskligt sinne till en maskin, varvid vi kommer att ha en oändligt kraftfull intelligens och, ganska troligt, förvärva odödlighet. Denna teori låg till grund för den dystopiska filmen Transcendence, med Johnny Depp i huvudrollen som en Kurzweil-liknande vetenskapsman vars sinne laddades upp på internet – med fruktansvärda konsekvenser för mänskligheten.

Lyckligtvis, eftersom IP-metaforen inte på något sätt är korrekt, kommer vi aldrig att behöva oroa oss för att det mänskliga sinnet ska bli galet i cyberrymden, och vi kommer aldrig att kunna uppnå odödlighet genom att ladda ner det någonstans. Anledningen till detta är inte bara frånvaron av medveten programvara i hjärnan; problemet är djupare - låt oss kalla det problemet med unikhet - vilket låter både inspirerande och deprimerande.

Eftersom varken "minnesbanker" eller "representationer" av stimuli finns i hjärnan, och eftersom allt som krävs av oss för att fungera i världen är förändringar i hjärnan som ett resultat av vår erfarenhet, finns det ingen anledning att tro att en och samma upplevelse förändrar var och en av oss på samma sätt. Om du och jag går på samma konsert kommer förändringarna som sker i min hjärna av ljuden i Beethovens symfoni nr 5 nästan säkert att skilja sig från de som sker i din hjärna. Dessa förändringar, vilka de än må vara, skapas på basis av en unik neural struktur som redan finns, och som var och en har utvecklats under ditt liv, fylld med unika upplevelser.

Som Sir Frederick Bartlett visade i sin bok Remembering (1932), är det därför inga två människor någonsin kommer att upprepa en berättelse de har hört på samma sätt, och med tiden kommer deras berättelser att bli mer och mer olika varandra.

Ingen "kopia" av historien skapas; snarare, varje individ, när han hör berättelsen, förändras i viss utsträckning - tillräckligt för att när de senare tillfrågas om berättelsen (i vissa fall dagar, månader eller till och med år efter att Bartlett först läst berättelsen för dem) - kommer de att kunna, i viss mån, för att återuppleva ögonblicken de lyssnade på berättelsen, om än inte särskilt exakt (se den första bilden av dollarsedeln ovan.).

Jag tror att detta är inspirerande, eftersom det betyder att var och en av oss är verkligen unik – inte bara i vår genetiska kod, utan även i hur våra hjärnor förändras över tiden. Det är också deprimerande eftersom det gör neurovetenskapens skrämmande uppgift nästan bortom fantasi. För var och en av våra dagliga upplevelser kan den ordnade förändringen involvera tusentals, miljoner neuroner, eller till och med hela hjärnan, eftersom förändringsprocessen är olika för varje enskild hjärna.

Ännu värre, även om vi hade förmågan att ta en ögonblicksbild av alla 86 miljarder neuroner i hjärnan och sedan simulera tillståndet för dessa neuroner med en dator, skulle denna spretiga mall inte passa någonstans utanför hjärnan där den ursprungligen skapades..

Detta är kanske den mest monstruösa effekten som IP-metaforen har haft på vår förståelse av den mänskliga kroppens funktion. Även om datorer behåller exakta kopior av information – kopior som kan förbli oförändrade under långa perioder även om själva datorn har stängts av – behåller våra hjärnor intelligens bara medan vi lever. Vi har inga på/av-knappar.

Antingen fortsätter hjärnan sin aktivitet eller så försvinner vi. Dessutom, som neuroforskaren Steven Rose noterade i sin bok The Future of the Brain från 2005, kan en ögonblicksbild av hjärnans nuvarande tillstånd också vara meningslös om vi inte känner till hela livshistorien för ägaren av denna hjärna - kanske till och med detaljer om den sociala miljö där han eller hon växte upp.

Tänk på hur svårt det här problemet är. För att ens förstå grunderna för hur hjärnan upprätthåller mänsklig intelligens, kan vi behöva ta reda på inte bara det nuvarande tillståndet för alla 86 miljarder neuroner och 100 biljoner av deras skärningspunkter, inte bara den olika styrkan som de är kopplade till, utan också hur varje minuts hjärnaktivitet upprätthåller systemets integritet.

Lägg till här det unika i varje hjärna, skapat delvis av det unika i varje människas livsväg, och Kandels förutsägelse börjar se alltför optimistisk ut. (I en nyligen redaktionell kolumn New York Times neuroforskare Kenneth Miller föreslog att uppgiften att ens ta reda på grundläggande neurala anslutningar skulle ta "åldrar".)

Samtidigt spenderas enorma summor pengar på hjärnforskning baserad på ofta missriktade idéer och ouppfyllda löften. Det mest allvarliga fallet av neurologisk forskning som gick snett dokumenterades i en nyligen släppt Scientific American rapport . Det handlade om beloppet 1,3 miljarder dollar som tilldelats för Human Brain-projektet som lanserades av Europeiska unionen 2013.

Övertygad av den karismatiske Henry Markram om att han skulle kunna skapa en simulering av den mänskliga hjärnan på en superdator år 2023, och att en sådan modell skulle få ett genombrott i behandlingen av Alzheimers och andra sjukdomar, finansierade EU:s myndigheter projektet med bokstavligen inga begränsningar. Efter mindre än 2 år förvandlades projektet till en "brain twist" och Markram ombads lämna tjänsten.

Detta kommer att vara av intresse för dig:

Vi är levande organismer, inte datorer. Hantera det. Låt oss fortsätta att försöka förstå oss själva, men samtidigt bli av med onödig intellektuell börda. IP-metaforen har funnits i ett halvt sekel och medfört ett magert antal upptäckter. Det är dags att trycka på DELETE-knappen. publiceras

Översättning: Vlada Olshanskaya och Denis Pronin.







2022 gtavrl.ru.