首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 72 毫秒
1.
Dr. N. Schmitz 《Metrika》1972,19(1):72-75
Summary This note deals with sequential tests requiring at mostk observations. First a lemma is proved concerning the form of Bayes solutions. Then it is demonstrated by giving a counter-example that the theorem ofWald andWolfowitz has no correspondence fork-stage tests.
Zusammenfassung Es wird gezeigt, daß man beik-stufigen Tests zwar für die Gestalt vonBayes-Lösungen ein Analogon zu den unbeschränkten Sequenztests hat, daß aber der Satz vonWald undWolfowitz über die gleichmäßige Optimalität bzgl. des Stichprobenumfangs keine Entsprechung besitzt.
  相似文献   

2.
D. Kalin 《Metrika》1982,29(1):261-270
Zusammenfassung In dieser Arbeit wird das Modell des sogenannten zweiarmigen Bernoulli-Banditen mit einer bekannten Erfolgswahrscheinlichkeit betrachtet. Wir nehmen an, daß die a priori Erfolgswahrscheinlichkeit am unbekannten Arm verteilt ist gemäß einer beliebigen Verteilungsfunktion. Wir formulieren das Problem als ein Markoffsches Entscheidungsmodell mit unendlichem Horizont und zeigen verschiedene Monotonieeigenschaften der Wertfunktion des Entscheidungsmodells. Wir stellen Optimalitätskriterien bereit, beweisen die Gültigkeit einer Stoppregel und zeigen abschließend die Existenz einer optimalen monotonen Strategie.
Summary In this paper we consider the so called two-armed Bernoulli-bandit problem with one success probability known. We assume that the prior success probability for the unknown arm is distributed according to an arbitrary distribution function. We formulate this problem as a Markovian decision model with infinite horizon and show several monotonic properties of the value function of the decision model. We give a criterion for optimality and establish the existence of a stopping rule as well of a monotone optimal strategy.


Diese Arbeit ist mit Unterstützung des von der Deutschen Forschungsgemeinschaft getragenen Sonderforschungsbereichs 72 entstanden.  相似文献   

3.
Dr. W. Krämer 《Metrika》1985,32(1):151-162
Übersicht Die vorliegende Arbeit untersucht die Konsequenzen von Trend für die asymptotischen Eigenschaften einiger Schätzverfahren in Fehler-in-den-Variablen-Modellen, bei Vorliegen der funktionalen Spezifikation. Dabei wird Trend als über alle Grenzen wachsende empirische Varianz der Regressoren interpretiert. Die untersuchten Schätzverfahren sind die Gewöhnliche und die Verallgemeinerte Kleinst-Quadrate-Methode (OLS bzw. GLS) sowie ein von Theil angegebenes Schätzverfahren, das die Kenntnis der Kovarianzmatrix der Fehler der exogenen Variablen voraussetzt. Es zeigt sich, daß im Gegensatz zum Standardfall ohne Trend OLS unter gewissen Zusatzbedingungen konsistent ist, und in diesem Fall die asymptotischen Verteilungen aller drei Verfahren übereinstimmen.  相似文献   

4.
Zusammenfassung Mit Hilfe der bedingten Wahrscheinlichkeiten für das Eintreten von genauk Ereignissen im Zeitpunktt o unter der Bedingung, daß im Zeitpunktt o mindestens ein Ereignis eintritt, wird eine Beziehung formuliert, die für die Existenz desk-ten Moments des die Ereignisse zählenden Punktprozesses notwendig ist. Hat dieser Punktprozeß unabhängige Zuwächse, so ist die angegebene Beziehung auch hinreichend für die Existenz desk-ten Moments.
Summary Using the conditional probability thatk events occur at timet o given that at least one event occurs att o a condition is formulated which is necessary for the existence of the moment of orderk of the point process counting these events. This condition is sufficient, too, if the point process has independent increments.
  相似文献   

5.
Zusammenfassung Der Permutationstest ist ein nichtparametrischer Test zur Prüfung der Frage, ob zwei nicht verbundene Stichproben aus derselben Grundgesamtheit stammen. Dieser Test ist in der Literatur h?ufig beschrieben (siehe etwaLienert, Pfanzagl, Siegel, Walsh), wird aber in der Praxis nur wenig angewandt, obwohl er im allgemeinen trennsch?rfer ist als der beliebtere Rangtest von Wilcoxon. Der Grund ist darin zu suchen, da? bisher kein geeignetes Verfahren bekannt war, um die Kombinationen, die bei diesem Test den kritischen Bereich bilden, auf einfache Art zu bestimmen. In Abschnitt 1 wird ein Verfahren angegeben, das diese Kombinationen in der richtigen Reihenfolge ausw?hlt und sich auch besonders zum Einsatz an einer elektronischen Rechenanlage eignet. Der Permutationstest in der üblichen Form ist auf die Gegenhypothese zugeschnitten, da? die Verteilungen der beiden Stichproben durch eine Verschiebung auseinander hervorgehen. Oft wird nicht nur gefragt, ob eine solche Verschiebung nachzuweisen ist, sondern darüber hinaus auch eine Aussage über das Ausma? der Verschiebung gewünscht. Man hat dann ein Konfidenzintervall für die Differenz der beiden Mittelwerte (oder der beiden Werte eines beliebigen anderen Lageparameters) zu bilden. Im Abschnitt 2 ist dargestellt, wie ein solches Konfidenzintervall mit Hilfe des Permutationstests berechnet werden kann. Bei diesem Verfahren werden die Grenzen des Konfidenzintervalls iterativ ermittelt. Die Prozedur enth?lt das Verfahren von Abschnitt 1 als einen Teil und eignet sich ebenfalls wieder für den Einsatz an einer elektronischen Rechenanlage. In beiden Abschnitten werden die Verfahren anhand eines kleinen Beispiels veranschaulicht.  相似文献   

6.
Dr. H. Hilden 《Metrika》1976,23(1):167-191
Zusammenfassung Die Eigenschaften der Maximum-Likelihood-Schätzfunktion für den Parametera des linearen Todesprozesses werden für den Fall fehlerbehafteter, Beobachtungen untersucht. Die Beobachtungszeitpunkte werden äquidistant angenommen. Erwartungswert und Varianz der Schätzfunktion werden approximativ angegeben und für verschiedene Fälle numerisch ausgewertet. Hierbei wird zum einen vorausgesetzt, daß der Parameter aus einer Anfangsphase des Prozesses, zum anderen, daß er aus dem gesamten Verlauf des Prozesses geschätzt wird. Ebenfalls werden der Erwartungswert und die Varianz der Maximum-Likelihood-Schätzfunktion füre at angegeben. Die asymptotische Verteilung der Schätzfunktion wird hergeleitet; damit zugleich ergeben sich Formeln zur Bildung eines Konfidenzintervalls füra. In allen Fällen folgen Hinweise auf den Gültigkeitsbereich der Näherungsformeln. Dargestellt werden die Ergebnisse vielfach in Bezug auf den durchschnittlichen relativen Fehler und den Variationskoeffizienten der Schätzfunktion. Zum Abschluß werden einige Beziehungen der hier erzielten Ergebnisse zu solchen aus der Theorie der Lebensdauerprüfung betrachtet.
Summary The properties of the maximum likelihood estimator for the parametera of the linear death process are investigated in the case of observations combined with errors. It is assumed that the observations are made at equidistant points of time. The approximate bias and variance of the estimator are derived and numerically evaluated for various cases. In doing so the parameter is assumed to be estimated (a) from an initial phase of the process, and (b) from the outcome of the complete process. The asymptotic distribution of the estimator is developed and confidence interval fora is derived. Furthermore the bias and variance of the maximum likelihood estimator fore at is determined. In all cases there are limits as to the region in which the approximations are valid. Generally the results are presented with reference to the average relative error of the estimator and its coefficient of variation. Finally some relations of the results derived to those from the theory of life testing are considered.
  相似文献   

7.
Zusammenfassung In letzter Zeit werden in der ökonomischen und ökonometrischen Literatur verstärkt Ungleichgewichtsmodelle betrachtet.Bei der Behandlung von methodischen Problemen in Ungleichgewichtsmodellen tritt das switching regression Problem auf.Im switching regression Problem beobachtet man eine Zufallsvariabley, die Regressand in einem vonm möglichen Regressionsansätzen ist; dabei liege keine weitere Information vor, aus welchem Regressionsansatzy beobachtet wird.Es wird gezeigt, daß die Maximum-Likelihood-Schätzer der Parameter der Regressionsansätze im allgemeinen nicht konsistent sind. Damit wird eine Behauptung vonFair/Jaffee [1972] widerlegt.  相似文献   

8.
Zusammenfassung Die Frage, warum bestimmte Informationen oder Werbemittel mehr und andere weniger Überzeugungskraft aufweisen, beschäftigt die Marketingforschung und verwandte Gebiete schon seit geraumer Zeit. Eine dieser Thematik zuzuordnende Forschungsrichtung, die in den letzten zwanzig Jahren eine Forschungstradition entwickelte, ist die Imagery-Forschung. Autoren, die sich dieser Forschungsrichtung zuwenden, erklären die Wirkung von Informationen damit, dass die Elemente in dieser Information Gedächtnisinhalte oder Imaginationen (Fantasien bzw. Vorstellungen) bei den Rezipienten auslösen, die ihrerseits die Bewertung des relevanten Meinungs- oder Werbeobjekts beeinflussen. In diesem Beitrag wird zunächst dargestellt, welche Hypothesen im Mittelpunkt der neueren Imagery-Forschung stehen. Der Nutzen dieser Überlegungen besteht zum Beispiel für die Werbepraxis darin, dass konkrete Hinweise für die Werbegestaltung gegeben werden. Anschließend wird der Stand der empirischen Forschung zu diesen Hypothesen vorgestellt. Hier zeigt sich, dass die empirischen Erkenntnisse hinter dem Stand der theoretischen Forschung zurückgeblieben sind. Am Ende dieser Abhandlung werden Vorschläge unterbreitet, wie die theoretischen Überlegungen einer weitergehenden Analyse unterzogen werden können. JEL classifications M31, M37  相似文献   

9.
Zusammenfassung Ein Großteil der Handelsunternehmen versucht mittlerweile, Kunden über Kundenkartenprogramme und die damit verbundenen Vorteile an sich zu binden. Der Handel kann dadurch auf große Datenmengen über die Kaufhistorie seiner Kunden zurückgreifen. Die Antworten auf strategische Fragestellungen, wie beispielsweise die Kundenbindung, sollen zu einer nachhaltigen Weiterentwicklung jedes einzelnen Kunden führen. Für die hier skizzierte Anwendung im Handel wird in der Regel mit der sogenannten Warenkorbanalyse gearbeitet. Diese Methode beinhaltet die Untersuchung der Zusammensetzung eines Warenkorbs, der alle von einem Konsumenten zur gleichen Zeit am gleichen Ort erworbenen Güter umfasst. Dabei wird angenommen, dass die Kaufentscheidungen in den Kategorien nicht unabhängig getroffen werden, sondern über die Kategorien hinweg voneinander abhängen. Bei der Modellierung von Kaufwahrscheinlichkeiten müssen diese Abhängigkeiten berücksichtigt werden, um geeignete Marketingstrategien ableiten zu können. Dieser Artikel gibt einen Überblick über bestehende Veröffentlichungen im Bereich der Verbundanalyse. Die relevante Literatur wird in explorative und explanative Modelle gegliedert, wobei der Schwerpunkt dieses Artikels auf den explanativen Modellen liegt. Komplementarität, Heterogenität und Mitnahmeeffekte werden als Bestimmungsfaktoren des Verbundkaufs identifiziert.   相似文献   

10.
Schlu?bemerkungen Die 7 Weizensorten lassen sich bezüglich der Ergebnisse des Phenoltests in 3 Gruppen einteilen. Die Sorte F ergibt einen sehr niedrigen Punktwert; die Sorten A und D weisen einen Punktwert in der N?he von 0,5 auf; die Sorten B, C, E und G haben Punktwerte in der N?he von 1. Diese Ergebnisse lassen sich mit einer Trennformel für quantitative Merkmale leicht in Verbindung bringen, was eine weitere Aufgliederung der sieben Sorten gestattet. Wenn sich dies als notwendig erweist, kann durch eine Streuungszerlegung geprüft werden, ob zwischen den durchschnittlichen Punktwertenx j gesicherte Unterschiede bestehen. Zudem kann auch untersucht werden, ob der berechnete Punktwertz=0,530 von irgendeinem andern Wert wesentlich abweicht; das Vorgehen ist beiR. A. Fisher (1954) undA. Linder (1960, § 643) beschrieben.   相似文献   

11.
Zusammenfassung Hedging von Unternehmensrisiken (,,Corporate Hedging“) wird in Zeiten von zunehmender Internationalisierung und volatileren Märkten vielfach als eine Grundaufgabe moderner Unternehmenssteuerung angesehen. Dabei wird Hedging meistens aus der Generalprämisse risikoaverser Wirtschaftssubjekte oder einem natürlichen Schutzbedürfnis ungenügend diversifizierter Stakeholder, seltener aus Sicht der Shareholder heraus begründet. Andererseits werden wohldiversifizierte und risikofreudige Shareholder eher gegen Hedging optieren. Der Beitrag problematisiert diesen im Schrifttum wenig beachteten Widerspruch, nimmt eine Klassifizierung verbreiteter Hedgingmodelle vor und geht insbesondere auf deren Eignung zur Erklärung von Hedging im Shareholder Value-Kontext ein. In der Literatur wird ein Hedgingmotiv von Shareholdern verbreitet aus exogenen Friktionen – wie bspw. der Vermeidung von Insolvenzkosten – abgeleitet und dabei auf plausibilistische Risikomaße, wie etwa die Ausfallwahrscheinlichkeit zurückgegriffen. Der Beitrag nimmt hier eine entscheidungstheoretische Identifikation des kontextadäquaten Risikomaßes nach Rothschild und Stiglitz vor und rekapituliert auf dieser Basis die verschiedenen Literaturauffassungen zum Hedging im Shareholder Value-Kontext. Dabei erweisen sich die dort genannten Hedgingfunktionen als wenig tragfähig; nach Einbeziehung der Stakeholderposition kann über Hedging nicht mehr isoliert unter Risikogesichtspunkten, sondern muss im Lichte von Risk-Return-Trade-offs diskutiert werden. JEL classifications D81, G32  相似文献   

12.
D. Mussmann 《Metrika》1973,20(1):219-229
Zusammenfassung Ein Experiment besteht aus einem Meßraum und einer Menge vonW-Maßen. Im allgemeinen nehmen wir an, daß das Experiment schwach dominiert ist. D. h. es gibt ein lokalisierbares Mß dertart, daß jedesW-Maß eine Dichte bzgl, dieses Maßes hat. Wir zeigen, daß ein schwach dominiertes Unterexperiment suffizient, ist, wenn es einen schwachen Markovkern (Markovkern fast überall) von dem Unterexperiment nach dem zugehörigen Experiment gibt, wir verallgemeinern diese Aussage für beliebige Experimente und geben ein verallgemeinertes Neyman-Kriterium an.
An experiment consists of a measurable sapce and set of probability measures. In general, we shall assume the experiment to be weakly dominated. That means, there is a lokalisable measure such that each probability measure has a density with respect to this measure. We show that sufficiency of a subexperiment is implied by existence of a weak Markov kernel (Markov kernel almost everywhere) from the subexperiment to the corresponding experiment, the generalize this proposition for arbitrary experiments, and give a generalized Neyman criterion.
  相似文献   

13.
Zusammenfassung Der vonBlackwell mittelsMarkoffscher Kerne eingeführte Begriff der Erschöpftheit eines klassischen Experiments für ein zweites mit gleicher Indexmenge wird mit dem Begriff der erschöpfenden Statistik vonHalmos undSavage verglichen. In der Tat gibt es Bedingungen, unter denen beide Begriffe zusammenfallen. Der Äquivalenzsatz wird durch EigenschaftenMarkoffscher Kerne sowie derBlackwellschen Erschöpftheitsrelation vorbereitet. Gegenbeispiele ermöglichen es, die Notwendigkeit der Regularitätsbedingungen einzuschen.
Summary Blackwell's studies concerning comparisons of experiments yield a concept of sufficiency which in general is not equivalent to the popular notion of a sufficient statistic made precise byHalmos andSavage. In fact regularity conditions can be given under which the two concepts coincide. Properties ofMarkov kernels and ofBlackwell's sufficiency relation are examined first. After the proof of the equivalence theorem counterexamples are presented to indicate the significance of the regularity conditions.


Das Manuskript ist am 14. 10 1968 bei den Herausgebern eingegangen.  相似文献   

14.
O. D. Anderson 《Metrika》1976,23(1):65-76
Summary Some recent work on Time Series is surveyed, and interest is focussed on Moving Average Processes, for which some new results are given. First, the background theory of the Time Domain is outlined, and then the problem of interpreting Box-Jenkins fits is discussed. Finally, we detail certain moving average properties of theoretical interest but also potentially useful in process modelling.
Zusammenfassung Es werden einige neuere Arbeiten über Zeitreihen untersucht, wobei sich das Interesse auf Verfahren mit gleitenden Mittelwerten konzentriert, für die einige neue Ergebnisse angeführt werden. Zunächst wird der theoretische Hintergrund des Zeitbereiches umrissen, und anschließend wird das Problem der Interpretation von Box-Jenkins-Anpassungen diskutiert. Abschließend untersuchen wir detailliert bestimmte Merkmale gleitender Mittelwerte, die zwar von theoretischem Interesse sind, jedoch auch für die Erarbeitung von Verfahrensmodellen potentiell nützlich sind.


This work was carried out while the author was with the Department of Mathematics, Nottingham University.  相似文献   

15.
Zusammenfassung Der vorliegende Überblicksartikel kommt zu dem Schluss, dass das Corporate-Governance-Umfeld einer Firma den Zusammenhang zwischen den Investitionen (I) und Cash Flows (CF) und damit die Investitionsrenditen beeinflusst. Beide Erklärungsansätze für positive I-CF-Sensitivitäten – die Theorie der asymmetrischen Informationen (TAI) als auch die Manager-Diskretions-Theorie (MDT) – finden empirische Unterstützung in Unter-Stichproben von Firmen. Die TAI erscheint wahrscheinlicher für junge, kleine und familienkontrollierte Firmen. Enge Banken-Firmen-Beziehungen reduzieren Finanzierungsrestriktionen. Wesentliche Bestimmungsfaktoren der I-CF-Sensitivität sind auch die Rechtstradition des Landes, in der sich die Firma befindet, die Qualität des Rechnungswesens und die Eigentümerstruktur der Firma. Die empirische Evidenz über die Schätzung von Investitionsrenditen ist ebenfalls konsistent mit der Aussage, dass manche Firmen unterinvestieren (müssen), während andere überinvestieren. JEL classifications G31, G32  相似文献   

16.
Die traditionelle Theorie der Zeitallokation des Haushalts basiert auf einer Allokation der dem Haushalt zur Verfügung stehenden Zeit auf Freizeit und Arbeitszeit. Nicht n?her thematisiert wird jedoch die Arbeitszeit. Inhalt dieses Beitrags ist die Frage, wie der Haushalt die Arbeitszeit selbst wiederum aufteilt auf die alternativen Besch?ftigungsformen der selbstst?ndigen Erwerbsarbeit und der abh?ngigen Erwerbsarbeit. Das Nebeneinander beider Besch?ftigungsformen bei der Zeitallokation des Haushalts ist heute ein empirisch best?tigtes Ph?nomen. In dem vorliegenden Artikel werden zun?chst die Determinanten dieser Allokationsentscheidung im Rahmen eines normativen mikro?konomischen Modells analysiert. Neben den prim?r volkswirtschaftlichen Grundlagen wird dann die im Mittelpunkt des Artikels stehende betriebswirtschaftliche Fragestellung analysiert: Welche Auswirkungen hat eine mangelnde Zeitflexibilit?t seitens des Unternehmens, die es den Arbeitskr?ften nicht erm?glicht, die gewünschte Aufteilung der Arbeitszeit umzusetzen, auf den von diesen Unternehmen zu zahlenden Lohn — mit anderen Worten: Was kostet das Unternehmen das Festhalten an rigiden Arbeitszeitmustern? Als Ergebnis werden modelltheoretisch drei denkbare Konstellationen für das Verh?ltnis zwischen arbeitnehmerseitig gewünschter und unternehmensseitig geforderter Arbeitszeit der notwendige Lohnzuschlag zum Ausgleich eventueller Diskrepanzen ermittelt.  相似文献   

17.
S. Schach 《Metrika》1970,15(1):48-58
Zusammenfassung In dieser Arbeit wird das asymptotische Verhalten einer Klasse von verteilungsfreien Statistiken, welche nicht-lineare Funktionen des Rangvektors sind, untersucht. Es ergibt sich, da? unter sehr allgemeinen Bedingungen die Grenzverteilung eine (evtl. unendliche) Summe von gewichteten, unabh?ngigenx 2-Verteilungen ist. Die Theorie der Wahrscheinlichkeitsma?e aufHilbertschen R?umen und das Konzept der „schwachen Konvergenz“ solcher Ma? erweisen sich dabei als sehr brauchbare Hilfsmittel.

Research supported by the National Science Foundation under Grant No. GP-3816 and GP-6859. This work is based on the authors Ph. D. Dissertation, University of Minnesota.  相似文献   

18.
Zusammenfassung In dieser Arbeit wird die asymptotische Verteilung des Prognosefehlers, wie er sich im Rahmen einer dynamischen Simulation eines allgemeinen autoregressiven ökonometrischen Modells der Ordnungp (einschließlich verzögerter exogener Variabler der Ordnungq) ergibt, abgeleitet. Daran anschließend werden einige Fragestellungen, die damit in unmittelbarem Zusammenhang stehen, diskutiert: Die Frage der relativen Effizienz der Prognoseschätzung, basierend auf der unrestricted- bzw. der derived reduced form, die Verwendung der asymptotischen Verteilung des Prognosefehlers für einen predictive test des Modells. Außerdem werden asymptotische simultane Prognoseintervalle abgeleitet.
Summary The asymptotic distribution of the forecast error in the dynamic simulation of a higher than first order linear dynamic econometric model is derived and related topics are discussed.
  相似文献   

19.
Zusammenfassung Die Bedeutung der Selbstregulation für die Arbeitsmotivation und -leistung ist unumstritten. Der vorliegende Beitrag beschäftigt sich mit Selbstregulation, mit dem Regulationsfokus auf Promotion oder Prävention und der Passung zwischen Regulationsfokus und Arbeitsauftrag und -anforderungen. Die Übereinstimmung zwischen der Art der Selbstregulation einer Person und der aktuellen Situation hat positive Konsequenzen auf die Arbeitsmotivation und Arbeitszufriedenheit. Auch die Effizienz von Feedback über Arbeitsschritte und -leistungen sowie der Erfolg von Programmen zur Förderung eines gesunden Lebensstils hängen vom Regulationsfokus des Empfängers der Botschaft ab. In der Mitarbeiterführung und Arbeitsgestaltung können die Berücksichtigung des Regulationsfokus einer Person, eine entsprechende Aufgabenformulierung und die adäquate Rückmeldung über die Arbeitsleistung positive Effekte auf Motivation und Leistung haben. JEL classifications M12, M54  相似文献   

20.
H. Stenger 《Metrika》1979,26(1):205-214
Summary Consider simple random sampling (without replacement) of a fixed size and lett 0 be the sample mean, i.e. the arithmetic mean of all variate values observed in the sample. The class {t 0: real} of estimators for the population mean (i.e. The arithmetic mean of all variate values) then surely is of interest.We discuss different types of variates, in particular variates with positive values only. For these variates the usual square error loss gives rise to a strange class of admissible estimators. An other type of loss functions seems far more appropriate. For this (logarithmic) type, t 0 is admissible iff =1. We prove that there exists no other type of loss functions with the property that the unbiased estimatort 0 is the only admissible element of the class {t 0: >0}.
Zusammenfassung Bei fest vorgegebenem Stichprobenumfang werde uneingeschränkt zufällig ausgewählt (ohne Zurücklegen);t 0 bezeichne das Stichprobenmittel, d.h. das arithmetische Mittel aller Stichprobenbeobachtungen des Untersuchungsmerkmals. Von besonderen Interesse ist dann zweifellos die Klasse {t 0: reell} von Schätzfunktionen für das Gesamtmittel, d.h. für das arithmetische Mittel aller Ausprägungen des Untersuchungsmerkmals.Wir betrachten verschiedene Typen von Untersuchungsmerkmalen, insbesondere Merkmale, die nur positive Ausprägungen besitzen. Für diese Merkmale führt die Verwendung der üblichen quadratischen verlustfunktion zu einer sehr merkwürdigen Klasse zulässiger Schätzfunktionen. Ein anderer Typ von Verlustfunktionen erscheint weit eher angebracht. Für diesen (logarithmischen) Typ ist t 0 genaudann zulässig, wenn =1 gilt. Wir beweisen, daß für keinen anderen Typ von Verlustfunktionent 0 das einzige zulässige Element der Klasse {t 0:>0} ist.
  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号