Veel

Miks muundatakse z-tegur 1 minu väljundis väärtuseks 0,999998

Miks muundatakse z-tegur 1 minu väljundis väärtuseks 0,999998


Just ehitas mudeli, mis kasutab 3D Analyst - Surface Volume. Püüan kasutada z-koefitsienti 1. Alati, kui mudelit käitan, näitab minu väljundtabel, et Z-i asemel kasutati Z-koefitsienti 0,999998. Ma tean, et see on väga väike erinevus, kuid isegi nii moonutab see minu tulemusi mõnevõrra. Tõesti, mida ma tahaksin teada, kas on hea seletus, miks see muutub väärtuseks 0,999998 või on kuidagi võimalik panna see püsima 1?


Täname veelkord teie panuse eest. Kui olen proovinud rastri tüüpi muuta, lihvib tööriist z-koefitsiendi kokku ja lukustab selle punkti 0.999998. Nii et ... ma arvan, et täis- või ujukomaandmete abil pole sellest tegelikult mingit võimalust. Ma proovisin isegi teisendada täisarvuks ja kasutada rasterkalkulaatorit andmete korrutamiseks 1000-ga, et kümnendkohad säiliksid täisarvu kujul, kuid jäin siiski kinni tegurist 0,999998 z. Ei mingit täringut.


Pean nõustuma kommentaaridega, selle kohta, kuidas soovite seda numbrit esindada. Kui soovite numbri 1 salvestada ujuvpunktina, salvestas ArcGIS selle numbri väärtuseks 0,9999 ... Tundub, et see Z-faktori argument on salvestatud nii. Ma arvan, et pole võimalust seda täisarvuna salvestada. Tegelikult on 0,9999 võrdne 1.

Pean lisama pildi, mida nägin mõni päev tagasi. See sobib selle küsimusega.


Miks seda nimetatakse varjatud vektoriks?

Sain just teada GANist ja olen Latent Vectori nimetamise osas veidi segaduses.

Esiteks on minu arvates varjatud muutuja määratlus juhuslik muutuja, mida ei saa otseselt mõõta (selle väärtuse saamiseks vajame mõningaid arvutusi teiste muutujate põhjal). Näiteks on teadmine varjatud muutuja. On see õige?

Ja siis on GANis varjatud vektor $ z $ juhuslik muutuja, mis on generaatorivõrgu sisend. Lugesin mõnest õpetusest, see on loodud ainult lihtsa juhusliku funktsiooni abil:

siis kuidas on need kaks asja omavahel seotud? miks me ei kasuta GAN-is $ z $ (generaatori sisend) viidates terminit "vektor, mille juhuslikud väärtused on vahemikus -1 kuni 1"?


Lähen sellele veidi erinevalt, alustades umbes samast kohast. Siin kasutan mudelina resonantset $ lambda $ / 2 20 m dipooli, mida juhib 100 W.

Arvutame välja praegune resonantsi dipooli etteandepunktis leitakse see sisendvõimsuse (100 vatti) ja etteande punkti impedantsiga, mis meie dipooli puhul eeldatakse teoreetiliseks 73 $ Omega $:

Seetõttu saab sõidupinge arvutada Ohmi seadusega:

$ V_ tekst = I cdot R = 1.17 mathrm A_ tekst cdot 73 Omega = 85.44 : mathrm V_ text $ (moduleerimata signaal)

Dipooli lõpus olev pinge nõuab Q arvutamist ja järgmise lahendamist:

Püüdes käega vehkimist minimeerida, võime Q-le anda mõned ülekandeliiniteooria lähendused (täieliku (ja matemaatiliselt raske) selgituse saamiseks vt Edmund Laporti raadioantennitehnikat). Selleks vajame dipool (seda peetakse ülekandeliiniks). Selle annab:

$ Z_ <0> = 276 cdot log_ <10> frac

= 972,31 Omega $

Kus $ l $ on dipooli kogupikkus ja $ p $ on dirigendi raadius (kõik samades ühikutes). Jätan siinkohal täpse pikkuse arvutamise tähelepanuta, me teame, et see on umbes 5% lühem tegelikust lainepikkusest, et korvata kiirustegur ja lõppmõjud. See järgmine bitt toetub ülekandeliini teooriale ja võib muutuda madude kotiks. Kui soovite rohkem teada saada, kust need võrrandid pärinevad, kontrollige ülaltoodud viidet. $ Q $ on siin otselaine ja peegeldunud laine pinge suhe:

ja $ m $ arvutatakse söödapunkti impedantsist $ R $ ja iseloomulikust impedantsist $ Z_0 $:

Kui arvutan $ Z_0 $, eeldan, et meie dipool on valmistatud 3 mm juhtmest. Nüüd numbritega väntamiseks:

Nüüd saame lahendada teksti $ V_ jaoks $:

Jällegi on see RMS-pinge, mille peaksime teisendama tipppingeks:

$ 568 : mathrm V_ text cdot sqrt <2> = pm 804 : mathrm V_ text $

See kõik on mõeldud 100 W jaoks, kui ühendame ülaltoodud matemaatikasse hoopis 1500 W, siis tuleme välja

$ 4397 : mathrm V_ text : text : pm 6200 : mathrm V_ text $

See on päris kopsakas värin. Nii et tagasi pöördudes OP muude küsimuste juurde, on sisendvõimsusel pingele oluline mõju. Ülejäänud tegurid on kõik samad kui antenni efektiivsuse maksimeerimisel (resonants, juhi suurus jne)

MUUDA: Enamik ülaltoodud võrrandeid pärineb ülaltoodud viite jaotisest Tsirkulatiivne disain. Raamat on matemaatiliselt raskem kui tavalised amatöörraadio viited, kuid mitte nii halb kui mõned moodsamad inseneritekstid. See on aeglane, kuid tasub lugeda.


Head parooli räsimise funktsioonid

PBKDF2 pärineb PKCS # 5-st. Selle parameetrid on iteratsioonide arv (täisarv, vähemalt 1, ülemist piiri pole), sool (meelevaldne baitide jada, pikkusepiiranguta), nõutav väljundpikkus (PBKDF2 võib genereerida konfigureeritava pikkusega väljundi), ja & quot; aluseks olev PRF & quot; Praktikas kasutatakse PBKDF2 alati koos HMAC-iga, mis ise on aluseks oleva räsifunktsiooni kohale ehitatud konstruktsioon. Nii et kui me ütleme & quot; PBBDF2 koos SHA-1 & quot ;, siis mõtleme tegelikult & quot; PBKDF2 koos HMAC-ga koos SHA-1-ga & quot;

  • Pikka aega täpsustatud, tundub praegu kahjustamata.
  • Seda on juba rakendatud erinevates raamistikes (nt see on varustatud .NET-iga).
  • Väga konfigureeritav (kuigi mõned rakendused ei lase teil räsifunktsiooni valida, nt .NET-is olev on mõeldud ainult SHA-1 jaoks).
  • Saanud NIST-i õnnistused (vaadake hiljem räsimise ja võtmete tuletamise erinevust modulo).
  • Konfigureeritav väljundi pikkus (jällegi vt hiljem).
  • Ainult protsessorimahukas ja seega GPU-ga palju optimeeritav (kaitsja on põhiserver, mis teeb üldisi asju, st arvuti, kuid ründaja saab oma eelarve kulutada spetsiaalsemale riistvarale, mis annab talle eelise).
  • Parameetreid (soola genereerimine ja salvestamine, iteratsiooniloenduse kodeerimine) peate ikkagi ise haldama. PBKDF2 parameetrite jaoks on olemas standardne kodeering, kuid see kasutab ASN.1, nii et enamik inimesi väldib seda, kui suudab (ASN.1 võib olla eksperdile keeruline käsitseda).

Ühtsus tähendab lihtsalt 1, seega on nad arvatavasti normaliseerinud oma väärtused nii, et nad kõik summeeriksid 1-ni selle asemel, et nende "loomulik" summa oleks. Ma võiksin ette kujutada mõnda spetsialiseeritud normaliseerimisskeemi, kuid seda tehakse tavaliselt jagamise teel ja seda ma eeldaksingi üksikasjalikuma kirjelduse puudumisel. Kui nad oleksid normaliseerunud nii, et väärtused oleksid selle asemel kokku 100, väljendaksid nad seda protsendina.

Oletame, et on olemas aine, mis koosneb kolmest kemikaalist: 5 1 kemikaali A, 2 liitrit kemikaali B ja 3 liitrit kemikaali C. Võite teha sarnase normaliseerimise ja öelda, et iga liitri ainet sisaldab 0,5 liitrit A, 0,2 liitrit B, ja 0,3 L C-d (iga väärtus on jagatud 10-ga, seega on kõik väärtused kokku üheks). Kui normaliseerusite ühtsuse asemel 100-le, siis võiksite ka öelda, et aine on 50% A, 20% B ja 30% C.


Need erinevad peamiselt lingifunktsiooni poolest.

Probitis: $ Pr (Y = 1 keskel X) = Phi (X ' beeta) $ (kumulatiivne normaalne pdf)

Muul viisil on logistikal veidi lamedamad sabad. st probiti kõver läheneb telgedele kiiremini kui logiti kõver.

Logitil on lihtsam tõlgendada kui probitil. Logistilist taandarengut saab tõlgendada logi koefitsientide modelleerimisena (st need, kes suitsetavad> 25 sigaretti päevas, surevad enne 65. eluaastat 6 korda suurema tõenäosusega). Tavaliselt alustavad inimesed modelleerimist logitiga. Logit vs probit otsustamiseks võite kasutada iga mudeli tõenäosuse väärtust.

Võib arvata, et standardsel lineaarsel mudelil (nt lihtsal regressioonimudelil) on kaks „osa”. Neid nimetatakse struktuurne komponent ja juhuslik komponent. Näiteks:
$ Y = beta_0 + beta_1X + varepsilon text varepsilon sim mathcal(0, sigma ^ 2) $ Esimesed kaks mõistet (see tähendab $ beta_0 + beta_1X $) moodustavad struktuurse komponendi ja $ varepsilon $ (mis tähistab tavaliselt jaotatud vea mõistet) on juhuslik komponent. Kui vastusemuutuja ei ole tavaliselt jaotatud (näiteks kui teie vastusemuutuja on binaarne), ei pruugi see lähenemine enam kehtida. Selliste juhtumite lahendamiseks töötati välja üldistatud lineaarne mudel (GLiM) ning logit- ja probit-mudelid on GLiM-ide erijuhud, mis sobivad kahendmuutujate jaoks (või mitme kategooriaga vastusemuutujad koos protsessi mõningate kohandustega). GLiM-l on kolm osa, a struktuurne komponent, a lingi funktsioonja a vastuse jaotus. Näiteks:
$ g ( mu) = beta_0 + beta_1X $ Siin on $ beta_0 + beta_1X $ jällegi struktuurne komponent, $ g () $ on linkimisfunktsioon ja $ mu $ on tingimusliku vastuse jaotuse keskmine antud punkt kovariaadiruumis. See, kuidas me siin struktuursest komponendist mõtleme, ei erine tegelikult sellest, kuidas me sellest tegelikult standardsete lineaarsete mudelitega mõtleme, see on üks GLiM-ide suur eelis. Kuna paljude jaotuste korral on dispersioon keskmise funktsioon, olles sobiv tingimusliku keskmisega (ja arvestades, et määrasite vastuse jaotuse), olete automaatselt arvestanud juhusliku komponendi analoogi lineaarses mudelis (NB: see võib olla praktikas keerulisem).

Linkimisfunktsioon on GLiM-ide võti: kuna vastusmuutujate jaotus ei ole normaalne, võimaldab see meil struktuurse komponendi vastusega ühendada - see neid 'seob' (sellest ka nimi). See on ka teie küsimuse võti, kuna logit ja probit on lingid (nagu selgitas @vinux) ja lingifunktsioonide mõistmine võimaldab meil arukalt valida, millal kumba kasutada. Kuigi lingifunktsioone võib olla palju, mis võivad olla aktsepteeritavad, on sageli mõni eriline. Ilma et oleks vaja liiga palju umbrohtu sattuda (see võib olla väga tehniline), ei ole prognoositav keskmine $ mu $ tingimata matemaatiliselt sama mis vastuse jaotuse kanooniline asukoha parameeter linkfunktsioon, mis neid võrdsustab, on kanoonilise lingi funktsioon. Selle "eeliseks on see, et $ beta $ jaoks on olemas minimaalselt piisav statistika" (saksa Rodriguez). Binaarse vastuse andmete (täpsemalt binoomjaotuse) kanooniline link on logit. Siiski on palju funktsioone, mis suudavad struktuurikomponendi kaardistada intervallile $ (0,1) $ ja on seega vastuvõetavad, on probit samuti populaarne, kuid on ka muid võimalusi, mida mõnikord kasutatakse (näiteks täiendav log log, $ ln (- ln (1- mu)) $, sageli nimetatakse 'cloglog'). Seega on palju võimalikke linkifunktsioone ja linkfunktsiooni valik võib olla väga oluline. Valik tuleks teha mõne kombinatsiooni põhjal:

  1. Teadmised vastuste jaotusest,
  2. Teoreetilised kaalutlused ja
  3. Empiiriline sobivus andmetega.

Olles käsitlenud veidi ideekavandite selgemaks mõistmiseks vajalikku kontseptuaalset tausta (andestage mulle), selgitan, kuidas neid kaalutlusi saab kasutada teie linki valimisel. (Lubage mul märkida, et arvan, et @ Davidi kommentaar tabab täpselt, miks valitakse erinevad lingid praktikas.) Alustuseks, kui teie vastusemuutuja on Bernoulli uuringu tulemus (see tähendab, et $ või $ 1 $), on teie vastuste jaotus binoomne ja see, mida te tegelikult modelleerite, on tõenäosus, et tähelepanek on $ 1 $ (st $ pi (Y = 1) $). Selle tulemusena töötab iga funktsioon, mis kaardistab reaalarvurea $ (- infty, + infty) $ intervalliga $ (0,1) $.

Teie sisulise teooria seisukohalt, kui mõtlete oma kaasliikmetele kui otse ühendatud edukuse tõenäosusega, siis valiksite tavaliselt logistilise regressiooni, kuna see on kanooniline link. Mõelge siiski järgmisele näitele: teil palutakse modelleerida kõrge verevoolu rõhk mõne ühismuutuja funktsioonina. Vererõhk ise on populatsioonis tavaliselt jaotunud (ma ei tea seda tegelikult, kuid see näib esmapilgul mõistlik), sellegipoolest kliinikud seda uuringu käigus dihhotomiseerisid (see tähendab, et nad registreerisid ainult "kõrge BP" või "normaalne") ). Sellisel juhul oleks teoreetilistel põhjustel a priori eelistatav probit. Seda tähendas @Elvis selle all, et "teie binaarne tulemus sõltub varjatud Gaussi muutujast". Teine kaalutlus on see, et nii logit kui ka probit on sümmeetriline, kui usute, et edukuse tõenäosus tõuseb aeglaselt nullist, kuid siis kitseneb kiiremini, kui see läheneb, on vaja kloglogi jne.

Lõpuks pange tähele, et mudeli empiiriline sobivus andmetega ei ole tõenäoliselt lingi valimisel abiks, välja arvatud juhul, kui kõnealuste lingifunktsioonide kuju oluliselt erineb (millest logit ja probit ei erine). Näiteks kaaluge järgmist simulatsiooni:

Isegi kui me teame, et andmed on genereeritud probit-mudeli abil ja meil on 1000 andmepunkti, annab probit-mudel paremini sobivuse vaid 70% ajast ja isegi siis sageli vaid tühise summa võrra. Mõelge viimasele kordusele:

Selle põhjuseks on lihtsalt see, et logit ja probit link funktsioonid annavad samade sisendite korral väga sarnaseid väljundeid.

Logit ja probit funktsioonid on praktiliselt identsed, välja arvatud see, et logit on nurgast keerates piiridest veidi kaugemal, nagu @vinux teatas. (Pange tähele, et logiti ja probiti optimaalseks joondamiseks peab logiti $ beta_1 $ olema $ umbes 1,7 $ korda suurem kui probiti vastav kalle väärtus. Lisaks oleksin võinud kloglogi veidi üle nihutada, nii et nad laseks rohkem üksteise peal, kuid ma jätsin selle küljele, et hoida joonist paremini loetavana.) Pange tähele, et klogloog on asümmeetriline, samas kui teised pole, see hakkab 0-st varem eemalduma, vaid aeglasemalt ja läheneb lähedale 1-ni ja pöörab seejärel järsult.

Lingifunktsioonide kohta võib öelda veel paar asja. Esiteks, arvestades identiteedi funktsioon ($ g ( eta) = eta $) lingifunktsioonina võimaldab meil mõista standardset lineaarset mudelit kui üldistatud lineaarse mudeli erijuhtu (see tähendab, et vastuse jaotus on normaalne ja link on identiteedifunktsioon ). Samuti on oluline tunnistada, et mis tahes muundamine, mille link viitab, rakendatakse sellele õigesti parameeter reguleerib vastuse jaotust (see tähendab $ mu $), mitte tegelikku vastust andmed. Lõpuks, kuna praktikas pole meil kunagi alusparameetrit, mida muuta, jäetakse nende mudelite aruteludes sageli varjatuks see, mida peetakse tegelikuks seoseks, ja mudelit esindab tagurpidi selle asemel struktuurikomponendile rakendatud lingifunktsiooni. See on:
$ mu = g ^ <-1> ( beta_0 + beta_1X) $ Näiteks on tavaliselt kujutatud logistiline regressioon: $ pi (Y) = frac < exp ( beta_0 + beta_1X)> <1+ exp ( beta_0 + beta_1X)> $ asemel: $ ln left ( frac < pi (Y)> <1- pi (Y)> right) = beta_0 + beta_1X $

Kiire ja selge, kuid kindla ülevaate üldistatud lineaarsest mudelist leiate Fitzmaurice, Laird ja amp Ware (2004) 10. peatükist (millele toetun selle vastuse osi, kuigi kuna see on minu enda mugandus - ja muu - materiaalne, kõik vead oleksid minu enda omad). Nende mudelite R-sse sobitamiseks vaadake põhipaketi funktsiooni? Glm dokumentatsiooni.

(Üks viimane märkus lisati hiljem :) Kuulen aeg-ajalt inimesi ütlemas, et te ei tohiks kasutada probitiiti, sest seda ei saa tõlgendada. See pole tõsi, kuigi beetade tõlgendamine on vähem intuitiivne. Logistilise regressiooni korral on $ X_1 $ ühe ühiku muutus seotud $ edukuse logi koefitsiendi $ beta_1 $ muutusega (alternatiivina ka $ exp ( beta_1) $ - kordne koefitsiendi muutus), kõik muidu võrdne. Probleemi korral oleks see $ beta_1 text <> z muutus

V Järeldus

... linn pole oma põhitasandil optimeeritav. Linna dünaamilisus tuleneb selle ebaefektiivsusest, inimeste ja ideede ettearvamatust põrkumisest. (Mäger, 2018)

Ülaltoodud väljavõte pärineb a New York Times artikkel, milles kirjeldatakse tehnikamaailma katset parandada linnu nende funktsioonide optimeerimise kaudu, parafraseerib UC-Berkeley professori Nicholas de Monchaux tsitaati, mis tuletab meile meelde, et efektiivsus on üle hinnatud. Reaalajas efektiivsuse poole püüdlemine tähendab seda, et proovime optimeerida keeruliste süsteemide komponente, millest me täielikult aru ei saa - ja võime oma katsete tõttu veelgi vähem aru saada. Linn ei ole suurte kiiruste jaoks konstrueeritav masin: linn on keeruline võrkude ja voogude ökosüsteem (Batty, 2012, 2013b). Kiired geograafilised andmed on tugev kiirendaja, mida tuleks sellele ökosüsteemile rakendada ainult mõistlikult ja diskrimineerivalt.

Tõeline väljakutse, millega inimkond silmitsi seisab, ei kiirenda, vaid pigem aeglustab inimeste, materjali ja energia voogu läbi linnade (Townsend, 2013). Esimene samm on lõpetada hõõrdumise kui võidetava vaenlase vaatamine: hõõrdumine võib olla sõber (Miller, 2017b). Sisse Terra Nova: uus maailm pärast õli, autosid ja eeslinnu, Eric Sanderson (2013) kirjeldab visiooni linnakorraldusest, mis põhineb ökoloogilistel põhimõtetel, mis hõlmavad häid hõõrdumisi ja vähendavad halbu hõõrdumisi. Head hõõrded on need, mis on looduslike süsteemide ja inimsüsteemide vahelistes piirides, kus ressursid (sealhulgas maa) lahkuvad loodusest ja jäätmed satuvad uuesti. Halvad hõõrdumised on need, mis aeglustavad vahetust ja innovatsiooni inimsüsteemides. Füüsiline hõõrdumine on samuti halb, seda saab vältida, asendades teed raudteega. Sõltumata sellest, kas nõustute tema nägemuse üksikasjadega või mitte, näitab Sanderson, et on olemas viise, kuidas korraldada inimsüsteeme peale kiire ja hõõrdumatu maailma vaieldamatu jälitamise.


Kui täpne on GPS kiiruse mõõtmiseks?

Nagu positsioneerimisel, sõltub GPS-i kiiruse täpsus paljudest teguritest.

Valitsus annab kosmoses GPS-signaali globaalse keskmise kasutaja vahemiku veaga (URRE) & le0,006 m / s mis tahes 3-sekundilise intervalliga 95% tõenäosusega.

Konkreetse vastuvõtja kiiruse täpsuse arvutamiseks tuleb seda mõõdet kombineerida muude valitsuse kontrolli alt väljuvate teguritega, sealhulgas satelliidi geomeetria, signaali blokeerimine, atmosfääriolud ja vastuvõtja disainifunktsioonid / kvaliteet.


3 vastust 3

Üks oluline tegur on mullaviljakus:

Java mullad on vulkaanilise tuha perioodilise rikastamise tõttu väga viljakad.

Seevastu kahe lähedal asuva Indoneesia suure saare Borneo (jagatud Brunei ja Malaisiaga) ja Sumatraga:

Maailma suuruselt kolmandal saarel Borneol on eeskujulikud vihmametsa mullad: madalad ja toitainetevaesed. Vihmade rohkus nendes iidsetes ökosüsteemides on miljoneid aastaid mulda imbunud.

Erinevalt ülerahvastatud Jaavast pakub naabersaar Sumatra endiselt tohutuid kasutamata maavarasid. Kuid kaugeltki kõiki neid varusid ei saa pidada reaalseks põllumajanduslikuks potentsiaaliks, nt. ümberasustamisprojektide jaoks. Eriti vilets pinnas osutub sageli põllumajanduslikuks puuduseks. Lisaks mullaviljakusele tuleb arvestada ka olemasoleva taimestikuga. Nii näiteks näitavad nn & quotalang alang grass savannas & quot üldiselt paremat potentsiaali kui metsaalad, samas kui enamik sood on põllumajanduse arenguks üsna ebasobivad.

(Ma arvan, et pole mõtet Java-t võrrelda saartega nagu Honshu või Madagaskar, mis asuvad teistes täiesti erineva ajalooga riikides.)

Kõige olulisem põhjus troopiliste Aasia muude osade suhtes on märja riisi kasvatamise varasem kasutuselevõtt Java keeles. Grigg juhib tähelepanu sellele, et ainsad kohad Aasias, kus asustustihedus oli 19. sajandi lõpus suurem, olid Hiina ja Jaapan. Märg riis on lihtsalt hämmastavalt produktiivne põllumajandusvorm, eriti traditsiooniliste standardite järgi, enne sünteetiliste väetiste vanust.

Jaapan on teine ​​juhtum. Alles hiljuti on Java elanikkond ületanud Jaapani elanikkonna ja see on tingitud sellest, et Jaapanil on ühed kõige madalamad viljakuse määr maailmas. Java on endiselt demograafilise ülemineku varasemas staadiumis, kuid aja jooksul aeglustub selle rahvastiku kasv järk-järgult.

Clifford Geertzi klassikalises köites Põllumajanduslik involutsioon: ökoloogiliste muutuste protsessid Indoneesias (1963), väidab autor, et jaava riisi kasvatamisel märjal riisil on väga suur potentsiaal tööjõu imamiseks. Kuigi Geertzi vaadet on kritiseeritud - valgustava arutelu jaoks vt Wood (2020), 6. peatükk (eelvaade on saadaval Google Booksis), on see hea lähtepunkt teie küsimusele vastamiseks. Wood kirjutab:

Geertzi seisukoha jaoks on fundamentaalne, et erinevatel põllumajandussüsteemidel on erinev tööjõu imendumise ja involutsioonivõime. Geertzi sõnul on Ida- ja Kagu-Aasias harilikult kasutatav märgriisikasvatus kõige suurema tööjõu imendumisvõimega mis tahes traditsioonilises põllumajanduses.

Seega võimaldavad troopikas ja subtroopikas märja riisi kasvatamise süsteemide eripärad neid süsteeme toetada ja mõnede autorite arvates nõudlus, suur asustustihedus. Suure tihedusega, kõrge intensiivsusega märjad riisisüsteemid asuvad kogu Lõuna- ja Kagu-Aasias.

Kuid nagu sellele küsimusele vastanud teised märkisid, on füüsilise keskkonna omadused ka suure tihedusega märja riisisüsteemi potentsiaali kriitilised tegurid. Kasvuperioodi temperatuur ja vihmasadu mõjutavad potentsiaalset tootlikkust, kuid troopilises ja parasvöötmes mussoon-Aasias on mullaviljakus ilmselt olulisem. Nii ei leia kõrge tihedusega riisisüsteemide parimaid näiteid mitte ainult Java viljakatest vulkaanilistest muldadest, vaid ka piirkonna suurematest jõeorgudest ja deltadest, näiteks Mekong, Red, Chao Phraya, Irrawaddy, Pearl, Jangtze , Ganges ja Jaapani viljakates, kuid kitsastes vulkaanilistes orgudes. Nagu eespool märgitud, on teised teie mainitud saared:

Madagaskar, Borneo, Sulawesi, Honshu (Jaapan) ja Sri Lanka

neid iseloomustab vanem ja keerulisem geoloogia, millel on oluliselt vähem viljakaid muldi, ja Jaapani puhul märkimisväärsed jaheda kuni külma parasvöötmega alad, kus riisikasvatus oleks piirdunud ühe saagiga aastas, kui üldse.


Joonealused märkused

Tekstifaile saab ilmselgelt numbriteks teisendada. Nii salvestatakse ja edastatakse neid. Kas tekstifaile ei saa elektrooniliselt töödelda? Jällegi peab vastus olema jah, tingimusel, mida üks tähendab töödelduna. Arvuti algoritmide võime kõnet (teksti) töödelda ja genereerida on dramaatiliselt paranenud sellest ajast, kui arutasime esimest korda pehmet ja rasket teavet. Kas seda saab tõlgendada ja kodeerida numbrilisse punktisumma (või hinded), on keerulisem küsimus. Numbrilise skoori saab alati luua. Küsimus on selles, kui palju väärtuslikku teavet selle käigus kaotsi läheb. Nimetame seda protsessi teabe karastamiseks ja arutame seda allpool.

Ettevõtte müügitulu või aktsiate tootlus on näide raskest teabest. On laialdane üksmeel selles, mida tähendab ettevõtte eelmise aasta müük 10 miljonit dollarit või ettevõtte aktsiahinna tõus 10%. Kui aga ütleme, et ettevõtte omanik on usaldusväärne, on vähem kokkulepitud, mida see tähendab ja miks see oluline on. Usaldusväärsuse definitsioonid võivad agentide lõikes erineda ja kontekst, milles usaldusväärsust hinnatakse, võib olla asjakohane.

See erinevus tuletab meelde erinevust lähenemisviisis, mida kasutame esimese aasta lõpetanud ökonomeetria õpetamisel, ja seda, kuidas empiirilisi uuringuid praktikas tehakse. Econometrics 101-s eeldame, et teame sõltuvat muutujat, sõltumatuid muutujaid ja funktsionaalset vormi. Ainus tundmatu on koefitsientide täpne väärtus. Tegelikus uurimisprojektis on meil prioriteedid oluliste majanduskontseptsioonide vaheliste seoste kohta, kuid me ei tea, kuidas täpselt mõõta sõltuvate ja sõltumatute muutujate mõisteid ega funktsionaalset vormi. Alles pärast andmete kogumist ja esialgsete tulemuste uurimist saame aru, kuidas muutujad on omavahel seotud. See viib meid hüpoteesi muutma ja nõuab sageli täiendavate andmete kogumist või andmete tõlgenduse muutmist. Uurimisprotsess aitab meil puuduvat konteksti näha ja mõista.

Tüüpiline näide on suhtepõhine laenuametnik. Laenuametnikul on laenuvõtjaga ajalugu olemas ning ta on paljude isikliku kontakti põhjal loonud mulje laenusaaja aususest, krediidivõimest ja makseviivituse tõenäosusest. Selle laenusaaja seisukoha ja laenuametniku kogemuste põhjal laen heaks kiidetakse või lükatakse tagasi. Uzzi ja Lancaster (2003) kirjeldavad laenuvõtjate ja laenuametnike omavahelist suhtlemist üksikasjalikult.

Bikhchandani, Hirshleiferi ja Welchi (1992) uurimuses informatiivsete kaskaadide kohta modelleerivad nad järjestikuseid otsuseid, milles agendid näevad varasemate agentide (binaarseid) otsuseid, kuid mitte teavet, mille alusel otsus tehakse. See teabe vähenemine (kõvenemine) viib agentide enda (pehme) teabe eiramiseni ja rahvahulga jälgimisele.

Autorite kirjeldus selle perioodi kaubanduskrediiditurgudest on silmatorkavalt sarnane Nocera (2013) kirjeldusega USA tarbimislaenude turult 1950. aastatel.

Duni ja Bradstreeti eelkäija, kaubandusagentuur, asutati 1841. aastal (Carruthers ja Cohen 2010b). Henry Poor asutas Ameerika Ühendriikide raudteede ja kanalite ajaloo Standard and Poor’s eelkäija 1860. aastal.

Carruthers ja Cohen (2010b, lk 5–6) parafraseerivad Cohenit (1998), öeldes: „… krediidi hindamisse läks muutlik ja süsteemitu faktide, kohtuotsuste ja kuulujutute kogum ettevõtte, selle omaniku isiksuse, äritehingute, perekonna kohta ja ajalugu ... välja tuli ametlik, süsteemne ja võrreldav krediidivõimekuse hindamine ... ”.

CRSP algas Merrill Lynchi, Pierce'i, Fenneri ja Smithi asepresidendi Louis Engeli küsimusega. Ta soovis teada aktsiate pikaajalist tootlust. Ta pöördus Chicago ülikooli professori James Lorie poole, kes ei teadnud kumbagi, kuid oli nõus nende jaoks välja selgitama (50 000 dollari suuruse toetuse saamiseks). Selle väljaselgitamise protsess viis CRSP aktsiate tagastamise andmebaasi loomiseni. See, et investeerimisprofessionaalid ega akadeemiline rahandus ei teadnud sellele küsimusele vastust, illustreerib seda, kui kaugele oleme jõudnud sõltuvalt raskest teabest, näiteks aktsiate tootlusest. Professor Lorie kirjeldas oma 1965. aasta Philadelphia pöördumises CRSP-le eelnenud teadusuuringute seisu: „Kuni viimase ajani olid peaaegu kogu selle töö teinud isikud, kes teadsid palju aktsiaturust ja väga vähe statistikast. Ehkki see teadmiste ja teadmatuse kombinatsioon ei ole tõenäoliselt nii steriilne kui vastupidine - st statistiline keerukus koos rakendusvaldkonna teadmatusega -, ei andnud see siiski suurt väärtust. " Lisaks CRSP-le räägib ta veel ühest uuest andmekogumist: Compustat (müüb Standard Statistics Corporation), millel oli 60 muutujat ettevõtte kasumiaruandest ja bilansist.

Väikeettevõtete laenude puhul on tasude suurus sõltumatu laenu suurusest. Seega langeb protsenditasu koos laenu suurusega (Petersen ja Rajan 1994). Tehingukulude langetamine, eriti digitaalse kättetoimetamise ja automatiseerimise kaudu, võib olla eriti oluline mikrokrediidi laenamisel, kus laenusummad on väga väikesed (Karlan jt 2016).

Põhjus võib kulgeda ka vastupidises suunas. Suurem konkurents, mis võib tuleneda näiteks dereguleerimisest, suurendab survet kulude langetamiseks ja seeläbi tootmisprotsessi muutmiseks rohkem sõltuvaks raskest teabest.

Hüpoteeklaenud on vähem standardiseeritud ja informatiivselt tundlikumad kui tavalised hüpoteegid, sest mõnikord ei suuda laenuvõtjad oma sissetulekut täielikult avalikustada (Mayer, Pence ja Sherlund 2009).

Karolyi (2017) leiab, et suhe on üksikisikutega, mitte ettevõtetega. Pärast eksogeenseid muudatusi juhtimises (tegevjuhi surm või pensionile jäämine) lähevad ettevõtted oluliselt suurema tõenäosusega üle laenuandjatele, kellega uuel tegevjuhil on suhe (vt ka Degryse jt 2013). See on üks põhjus, miks ettevõtted, kes tuginevad võlakapitali kindlustamisel pehmele teabele, hoolivad pankade haprusest, kust nad laenavad (Schwert 2017).

Randomiseeritud kontrollkatset kasutades hindavad Paravisini ja Schoar (2015) krediidiskooride omaksvõtmist väikeettevõtete laenude korralduses. Nad leiavad, et krediidiskoori kasutamine parandab krediidikomiteede tootlikkust (nt iga faili jaoks kulutatakse vähem aega).

Friedman (1990) väidab, et see on turu üks eelis plaanimajanduse ees. Ta väidab, et kogu teave, mis on tarbijale või tootjale oluline kauba suhtelise pakkumise kohta, sisaldub hinnas. Seega ei pea tarnija teadma, kas hind on tõusnud, kuna nõudlus on tõusnud või pakkumine on langenud. Tarnija peab teadma ainult seda, et hind on tõusnud ja see dikteerib tema otsuse, kui palju tootmist suurendada. Friedmani turumajanduse kirjeldus kujutab klassikalist rasket teabekeskkonda.

2008. aasta finantskriisis oli suur osa investeerimisjärgu väärtpabereid maksmata. Vaikimisi suurus viitas reitinguprotsessi probleemile (vt Benmelech ja Dlugosz 2009a, 2009b). Vaatlejad tööstuses, õppejõududes ja valitsuses pakkusid välja võimalikke probleemi allikaid ja võimalikke lahendusi. Intrigeerivalt oli vaikeväärtus ettevõtete võlakirjaturul (tegutsevate ettevõtete võlg) struktureeritud finantsturuga (nt RMBS) väga erinev. Ettevõtete võlakirjade turu vaikeväärtused suurenesid 2009. aastal, kuid tipp ei erine drastiliselt varasemate majanduslanguste tipust (vt Vazza ja Kraemer 2016, diagramm 1). Struktureeritud finantsturu maksejõuetuse tipp oli 2009. aastal dramaatiliselt suurem (vt Lõuna- ja Gurwitz 2015, diagramm 1). See, et eluasemeturu kokkuvarisemine tabas struktureeritud rahalisi väärtpabereid agressiivsemalt, viitab sellele, et osa reitinguprotsessi probleemidest on turu struktureeritud finantssegmendis ainulaadne. Tegutseva ettevõtte jaoks on madal kapitali hind eelis, kuid mitte selle ainus või valdav konkurentsieelise allikas. Väärtpaberistamise struktuuri jaoks on madalam kapitalikulu üks väheseid konkurentsieelise allikaid. Seega võib pank muuta, millised hüpoteegid paigutatakse väärtpaberistamiseks, kui see muudatus suurendaks AAA-reitinguga väärtpaberistamise osa ja vähendaks seeläbi kapitalikulusid. Autotootmisettevõte ei sulge tõenäoliselt tehaseid ega suleta divisjoni üksnes kõrgema krediidireitingu saavutamiseks. Ettevõtte muutmise kulud krediidiskoori parandamiseks on suuremad ja kasu (suhteliselt) madalam tegutseva ettevõtte jaoks. See võib olla põhjus, miks nägime ettevõtete võlakirjade sektoris suhteliselt vähem makseviivitusi võrreldes väärtpaberistatud sektoriga. See küsimus ajendas reitinguagentuure kaaluma erinevaid reitinguskaale struktureeritud rahanduse ja ettevõtete võla suhtes (Kimball ja Cantor 2008).

Hu, Huang, and Simonov (2017) see the same behavior in the market for individual loans. The theoretical importance of nonlinearities in the mapping of inputs (hard information) to outputs (decisions) is discussed in Jensen (2003). In his examples, incentives to misstate one’s information are smaller if the payoff function is linear. Small changes in the reported information have only small changes in the manager’s payoff.

There may also be strategic reasons to avoid a transparent mapping between the numbers and the credit rating. The business model of credit rating agencies relies on market participants being unable to replicate the ratings at a lower cost than the agency. If the mapping were a direct function of easily accessible inputs (e.g., the income statement and balance sheet) and nothing else, some clever assistant finance or accounting professor would figure out the function. This is one reason that the early credit reporting agencies publicly released only a fraction of their information in the form of a credit score. For additional fees, users could review a more complete report ( Carruthers and Cohen 2010a, 2014).

Guiso, Sapienza, and Zingales (2013) find that borrowers feel less obligated to repay an underwater mortgage if the mortgage has been sold in the marketplace.

Brown et al. (2012) find that loan officers use discretion to smooth credit, but there is limited information in discretionary changes. Degryse et al. (2013) provide evidence that soft information helps predict defaults over public information (e.g., financial statements), but discretionary actions do not predict default. Gropp, Gruendl, and Guettler (2012) show that the use of discretion by loan officers does not affect the performance of the bank portfolio. Puri, Rocholl, and Steffen (2011) document the widespread use of discretion inside a German savings bank but find no evidence that loans approved based on discretion perform differently than those approved not based on discretion. Cerqueiro, Degryse, and Ongena (2011) find that discretion seems to be important in the pricing of loans but that it only plays a minor role in the decision to lend.

This is an imperfect solution when the loan officer has an incentive and the ability to manipulate the inputs, just as the borrower might. The loan officers in Berg, Puri, and Rocholl (2016) work for a bank that uses an internal credit score to evaluate loans. They show that loan officers repeatedly enter new values of the variables into the system until a loan is approved. Not only are they able to get loans approved that were originally rejected, but they also learn the model’s cutoffs and thus what is required for loan approval. These results suggest that even hard information decision-making algorithms, which are transparent and depend on data subject to the control of either participant (local decision maker or the target of the decision), are subject to the Lucas critique (see Section 2.4).

A variety of possible costs are embedded in the transmission of information in an organization. Theories of costly communication, where soft information may be more costly to communicate across hierarchies ( Becker and Murphy 1992 Radner 1993 Bolton and Dewatripont 1994) theories of loss of incentives to collect, process, and use soft information like in Aghion and Tirole (1997), because of the anticipation of being overruled by one’s superior and strategic manipulation of information like in Crawford and Sobel (1982) and Dessein (2002), offer three different, but related, explanations. In all these theories, those who send the information make it noisier and less verifiable if their preferences are not aligned with those who are receiving it and, ultimately, have the final authority to make the decision.

Rajan and Zingales (1998) argue that ownership is not the only way to allocate power in an organization. Another, and, in some cases, a better way, is through access. Access is the ability to work with or use a critical resource, though not necessarily a physical resource that can be owned. In financial institutions (and increasingly in other firms), this resource is often information.

Although these papers all examine geographical distance, they are different in nature. Petersen and Rajan (2002) document that distance between lenders and borrowers increased because of improvements in information technology. Degryse and Ongena (2005) study the relationship between the competitiveness of the lending market and the distance between the borrower, their lender, and other potential competitors (banks). Mian (2006) suggests that greater distance not only decreases the incentives of a loan officer to collect soft information but also makes it more costly to produce and communicate soft information. DeYoung, Glennon, and Nigro (2008) document the relationship between the use of hard information using credit scoring technologies and an increase in borrower-lender distances. Finally, Agarwal and Hauswald (2010) study the effects of distance on the acquisition and use of private information in informationally opaque credit markets. They show that borrower proximity facilitates the collection of soft information, which is reflected in the bank’s internal credit assessment.

Starting in the early eighties, the number of banks in the United States began declining by over 50%, with most of the fall occurring in the first decade ( Petersen and Rajan 2002, figure 4 Berger and Bouwman 2016, figure 8.1). The decline in the total number of banks is completely driven by the decline of small banks defined by those with gross total assets less than $1 billion. The number of large banks has grown. The decline in small banks is driven, in part, by the technology and the shift to hard information and also by deregulation (Strahan and Kroszner 1999). The growing reliance on hard information and automated decision-making and the associated cost savings created pressure to reduce regulations on bank expansion. In turn, diminishing regulatory restrictions raised the value of capturing cost savings by shifting to production processes that rely on hard information and enabled greater economies of scale.

Even in markets that we think are dominated by hard information and thus where we would expect distance not to be relevant, research has sometimes found a preference for local investments. Mutual fund managers tend to hold a higher concentration in shares of local firms, because access to soft information of local firms is cheaper ( Coval and Moskowitz 1999, 2001). The effect is strongest in small and highly levered firms.

If the local underwriters have soft information that nonlocal underwriters do not have, and they can thus sell the bonds at higher prices, they should be able to extract larger fees. Oddly, they do not. Local underwriters charge lower fees relative to nonlocal underwriting, suggesting that local competition limits their pricing power.

They use the measure of distance between banks and borrowers from Petersen and Rajan (2002) to classify whether industries are hard- or soft-information intensive. Industries where the distance between borrowers and lenders is larger are classified as hard information environments.

A plant may be located far away in terms of geographical distance, but monitoring may be easier when direct flights are available between the cities in which headquarters and plants are located.

Analogously, firms attempted to alter the financial information they reported in response to the introduction of credit ratings in an effort to increase their access to credit in the late nineteenth century ( Carruthers and Cohen 2010b, footnote 36).

The literature began by simply counting positive and negative words, which proved to be more complicated than one would have initially guessed. The language of finance is not as simple as we think ( Longhran and McDonald 2011). For example, the sentence “The Dell Company has 100 million shares outstanding” would have been classified as an extremely positive sentence by the early dictionaries, since “company,” “share,” and “outstanding” are coded as positive words (Engelberg 2008). The Hoberg and Phillips (2010) method is similar, but they are interested in a very different question. They use text-based analysis of firms’ 10-Ks to measure the similarities of firms involved in mergers and thus predict the success of the mergers. Mayew and Venkatachalam (2012) took this idea one step further and examined the information embedded in the tone of managers’ voices during earning calls.

Loss of information is not only due to the effect of hardening the information. A change in the compensation structure of agents may also affect the use of information. In a controlled experiment, Agarwal and Ben-David (2018) study the impact that changing the incentive structure of loan officers to prospect new applications has on the volume of approved loans and default rates. They find that after the change, loan officers start relying more on favorable hard information and ignoring unfavorable soft information. The results highlight how incentives dictate not just what information is collected but also what role it plays in the decision. Another form of loss of information is due to the portability of soft information. For example, Drexler and Schoar (2014) show that when loan officers leave, they generate a cost to the bank, because leaving affects the borrower-lender relationship. As the departing loan officers have no incentives to voluntarily transfer the soft information, borrowers are less likely to receive new loans from the bank in their absence.

Appearance also played a role in the early credit reports collected by the Mercantile Agency. The agency’s instructions to their agents stated “… give us your impressions about them, judging from appearances as to their probable success, amount of stock, habits, application to business, whether they are young and energetic or the reverse …” ( Carruthers and Cohen 2010b, p. 12).

Mollick (2014, p. 2) defines crowdfunding as “… the efforts by entrepreneurial individuals and groups … to fund their ventures by drawing on relatively small contributions from a relatively large number of individuals using the internet, without standard financial intermediaries.”

Participants contribute capital in exchange for a product or so they may participate in supporting an event or creative endeavor. The first is a form of trade credit (prepaying for a product) and in most examples is more akin to market research than equity funding, since the existence and the quality of the product are often uncertain.

Newman (2011) has raised the concern that “… crowdfunding could become an efficient, online means for defrauding the investing public … .”

Investors “… rely on highly visible (but imperfect) proxies for quality such as accumulated capital, formal education, affiliation with top accelerator programs, advisors, etc.” ( Catalini and Hui 2018, p. 1).

The Mercantile Agency, the precursor to Dun and Bradstreet’s, also worried about the tendency of some subscribers, who had purchased access to their reports, relying too heavily on the ratings, as opposed to visiting their offices and inspecting the underlying data ( Carruthers and Cohen 2010b).

The evidence that human brokers factor their client’s characteristics into the investment decision is not reassuring. A retail investor’s asset allocation significantly depends more on who their broker is (e.g., broker fixed effects) than the investors own characteristics (e.g., risk tolerance, age, financial knowledge, investment horizon, and wealth see Foerster et al. 2017).

Algorithms are written by humans, so they may embody the same behavioral biases that human advisors have ( O’Neil 2016, D’Acunto, Prabhala, and Rossi 2017) as well as the biases of those who design the algorithms or which may be inherent in the data ( O’Neil 2016).