首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 46 毫秒
1.
Abstract. This paper examines the choice of return-generating models for event studies with contemporaneous event periods and industry clustering (CEPIC). The importance of specifying an appropriate return generating model in event studies with CEPIC is demonstrated by showing that if the return-generating model is the two-factor model, inferences based on the market model are invalid. Evidence that the two-factor model is a better return-generating model is presented. Both the analytical results and empirical evidence support the finding in Chandra and Balachandran (1990) that inferences using generalized least squares (OLS) on the market model are very sensitive to return-generating model misspecifications. The results in this paper indicate that the findings in earlier event studies with CEPIC based on the market model need to be interpreted with caution. Further, the contemporaneous dependencies in the two-factor model residuals are found significant for the majority of the sampled industries. That is, the industry index in the two-factor model cannot remove all the cross-correlations in the market-model residuals. Therefore, even with the two-factor model as the return-generating model, GLS may he a preferred method for estimation and inferences, and the test statistic for inferences has to be robust to the presence of cross-sectional dependencies. Finally, using an error components model, it is shown that the industry factor can explain on average 6.7 percent and 11.5 percent of variations in market model residuals, for daily and weekly returns, respectively. This implies that the industry effects are too important to ignore in event studies with CEPIC. Résumé. L'auteur examine le choix des modèles de calcul du rendement s'appliquant aux études d'événements groupés par périodes de simultanéité et par secteur d'activité. Il établit l'importance du choix d'un modèle approprié de calcul du rendement dans les études d'événements ainsi groupés, en démontrant que lorsque le modèle de calcul du rendement est un modèle à deux facteurs, les inférences basées sur le modèle du marché ne sont pas valides. Il justifie l'efficacité supérieure du modèle à deux facteurs pour le calcul du rendement Les résultats analytiques ainsi que la démonstration empirique corroborent les conclusions de Chandra et Balachandran (1990) selon lesquelles les inférences faisant appel aux moindres carrés généralisés relatives au modèle du marché sont très sensibles aux erreurs de choix du modèle de calcul du rendement. Les résultats de l'étude dont l'exposé suit révèlent que les conclusions des études antérieures d'événements groupés par périodes de simultanéité et par secteur d'activité, basées sur le modèle du marché, doivent être interprétées avec prudence. L'auteur constate, en outre, que les liens de dépendance simultanés observés dans les résidus du modèle à deux facteurs sont significatifs pour la majorité des secteurs d'activité échantillonnés. En d'autres termes, l'indice sectoriel dans le modèle à deux facteurs ne peut éliminer toutes les corrélations croisées dans les résidus du modèle du marché. Par conséquent, même si l'on a recours au modèle à deux facteurs pour calculer le rendement, il peut être préférable d'utiliser les moindres carrés généralisés pour produire des estimations et des inférences, et la statistique de test des inférences doit résister à la présence de liens de dépendance croisés. Enfin, à l'aide d'un modèle de composantes d'erreur, l'auteur démontre que le facteur sectoriel peut expliquer les fluctuations dans les résidus du modèle du marché, à raison, en moyenne, de 6,7 pour cent pour les rendements quotidiens et de 11,5 pour cent pour les rendements hebdomadaires, de sorte que les conséquences attribuables au secteur sont trop importantes pour être ignorées dans les études d'événements groupés par périodes de simultanéité et par secteur d'activité.  相似文献   

2.
Abstract. The distribution of market model residuals or other measures of prediction errors is skewed and leptokurtic. To detect a location shift in leptokurtic residuals, a nonparametric rank test may be more efficient than a parametric t-test. Event studies that use a nonparametric test generally use the sign test, the Wilcoxon test, or some variation of the Wilcoxon test. The sign and Wilcoxon test statistics are calculated from the event-period residuals, so skewness and potential cross-sectional dependencies are not accounted for, causing a concern about the reliability of these tests for event studies. In this paper we propose a Mann-Whitney (MW) rank statistic in which the rank of the event-period residual is calculated relative to the estimation-period residuals. The MW statistic is a nonparametric analogue of the standardized residual (the residual scaled by its estimated standard deviation) used in the parametric (Patell-type) t-test. The MW statistics enable us to account correctly for skewness as well as potential cross-sectional correlation, and they are more powerful than the sign, Wilcoxon, and standardized residual statistics in detecting a location shift in leptokurtic residuals. Our results are based on a Monte Carlo study of simulated residuals. We simulate cross-sectionally independent residuals (for noncontemporaneous events) and cross-sectionally correlated residuals (for contemporaneous events). Résumé. La distribution des résidus du modèle du marché ou d'autres mesures des erreurs prévisionnelles est asymétrique et leptocurtique. Un test de rang non paramétrique peut être plus efficace qu'un test t paramétrique dans la détection d'un déplacement dans les résidus leptocurtiques. Les études événementielles basées sur un test non paramétrique ont généralement recours au test des signes, au test de Wilcoxon ou à une variante du test de Wilcoxon. Les statistiques du test des signes et du test de Wilcoxon sont calculées à partir des résidus événement-période, de sorte que l'asymétrie et les dépendances transversales possibles ne sont pas prises en compte, ce qui occasionne un problème de fiabilité des tests en ce qui a trait à l'étude événementielle. Dans le présent document, les auteurs proposent une statistique de rang Mann-Whitney (MW) dans laquelle le rang des résidus événement-période est calculé par rapport aux résidus estimation-période. La statistique MW est l'équivalent non paramétrique du résidu normé (soit du résidu pondéré en fonction de son écart-type estimé) utilisé dans le test paramétrique du t (de type Patell). Les statistiques MW nous permettent de tenir compte de façon exacte de l'asymétrie ainsi que de la corrélation transversale possible, tout en étant plus puissantes que les statistiques des signes, de Wilcoxon et des résidus normés dans la détermination d'un déplacement dans les résidus leptocurtiques. Les résultats obtenus par les auteurs sont basés sur une étude de Monte Carlo des résidus? simulés. Ils simulent des résidus transversalement indépendants (pour des événements non simultanés) et des résidus transversalement corrélés (pour des événements simultanés).  相似文献   

3.
Abstract. The alternative versions of the t-test found in event studies result from different weighting schemes for abnormal returns, different abnormal return models, and different correlational structures among abnormal returns. In the presence of dependencies among abnormal returns, the generalized least squares t-tests are much more sensitive to the mis-specifications in the abnormal return model than are the nongeneralized t-tests. Therefore, when analyzing contemporaneous returns, particularly with samples exhibiting a large industry concentration, a nongeneralized t-test should be preferred to a generalized least squares t-test because of the dependencies that may exist. Because the generalized least squares t-tests are highly sensitive to errors in specifying an appropriate abnormal return model, a portfolio time-series ordinary least squares regression should be preferred to a generalized least squares regression even when the variance or covariance matrix of abnormal returns can be estimated with a high degree of reliability. In testing for the mean effects, the concern for event period variance increases seems to be unwarranted, and the variance estimators using event period data are inefficient and biased. The issue is not whether variance increases in an event period, but which variance is to be used: that of the event period or of the nonevent period? Answers to such questions are presented in this paper. Résumé. Les différentes versions possibles du test t que l'on trouve dans les études d'événements résultent de différents systèmes de pondération des rendements anormaux, de différents modèles de rendements anormaux et de différentes structures de corrélation des rendements anormaux. Lorsqu'il existe une dépendance entre les rendements anormaux, les tests t généralisés des moindres carrés sont beaucoup plus sensibles aux défauts de construction du modèle des rendements anormaux que ne le sont les tests t non généralisés. C'est pourquoi lorsqu'on analyse des rendements simultanés, en particulier si l'échantillon présente une forte concentration industrielle, le test t non généralisé est préférable au test t généralisé des moindres carrés, compte tenu des dépendances qui peuvent exister. Les tests t généralisés des moindres carrés étant très sensibles aux défauts de construction du modèle approprié de rendements anormaux, l'application de la méthode classique des moindres carrés à une série chronologique relative à un portefeuille est préférable à la régression généralisée des moindres carrés, même s'il est possible d'estimer avec un degré élevé de fiabilité la matrice de variance ou de covariance des rendements anormaux. Dans le test des effets moyens, la préoccupation relative aux augmentations de la variance de la période d'événements semble être injustifiée, et les estimateurs de la variance fondés sur les données de la période d'événements sont inefficients et biaisés. Il ne s'agit pas de déterminer si la variance augmente pendant la période d'événements, mais quelle variance doit être utilisée: celle de la période d'événements ou une autre. Les auteurs répondent à ces questions.  相似文献   

4.
Abstract. Conventional wisdom holds that an auditor's optimal response to an increase in legal exposure is to double his efforts in finding errors in his client's financial reports. This paper's main result is that in a market setting where clients shop for opinions and auditors must compete for clients, the conventional wisdom may fail. Increased damages: affect all auditors reducing the competition among auditors for clients. Thus, an auditor can reduce his legal exposure by reporting more conservatively, instead of working harder. The main result is mitigated if client firms also face legal damages and if clients themselves are more conservative in preparing their unaudited financial statements. If it is more likely that a client claiming “good news” is truly good, the auditor has an incentive to work harder to confirm this good report and satisfy his client. This incentive to work harder to please his client may prevent the auditor from retreating into conservatism when damages are increased. Finally, if the auditors' report space were continuous, as with a continuum of client types, the main result would be reversed: additional damages would (weakly) increase the auditor's efforts. With a continuum of possible reports, the competition is not eliminated as damages increase; only the range of reports that the auditors offer is reduced. Because the competition cannot be eliminated and the incumbent cannot resort to conservatism to reduce his legal exposure, the auditor works hard. Résumé. Par tradition, la sagesse veut que la réaction la plus appropriée d'un vérificateur à une augmentation des risques juridiques soit un redoublement d'efforts pour déceler les erreurs dans les rapports financiers de ses clients. L'auteur en arrive pourtant à la principale conclusion que, dans le contexte d'un marché où les clients font du «magasinage» d'opinion et où les vérificateurs doivent se disputer les clients, la sagesse nous amène à faire fausse route. L'augmentation des dommages touche tous les vérificateurs et atténue la rivalité qui les oppose dans la recherche de clients. Ainsi, un vérificateur peut diminuer le risque juridique auquel il est exposé en usant d'une plus grande prudence dans ses rapports plutôt qu'en travaillant avec plus d'acharnement. L'auteur est cependant moins catégorique à ce sujet lorsque l'entreprise cliente fait aussi l'objet de poursuites en dommages et qu'elle est donc plus prudente dans la préparation de ses états financiers non vérifiés. Il est davantage probable que les nouvelles positives qu'une telle entreprise publie le soient véritablement, de sorte que le vérificateur est, lui, davantage enclin à déployer les efforts nécessaires pour confirmer ces nouvelles positives et satisfaire son client. Cette incitation à travailler avec plus d'énergie pour satisfaire le client peut faire en sorte que le vérificateur ne se replie pas derrière la prudence lorsque les dommages augmentent. Enfin, s'il existe un large éventail de rapports de vérification, comme dans le cas d'une multiplicité de types d'entreprises, la conclusion principale se trouve inversée; l'augmentation des montants de dommages entraîne une (faible) hausse de l'intensité du travail du vérificateur. Dans le cas d'un large éventail de rapports possibles, la concurrence ne s'atténue pas avec l'augmentation des montants de dommages; seul l'éventail des rapports qu'offrent les vérificateurs est réduit. Étant donné que la concurrence ne peut être éliminée, et que le vérificateur attitré ne peut recourir à la prudence pour réduire le risque juridique auquel il est exposé, il redouble d'effort.  相似文献   

5.
Résumé. Les auteurs se penchent sur la question du portefeuille d'un vérificateur qui contrôle le volume de travail de vérification qu'il accepte et combine ensuite ses placements sur le marché boursier en général à ses placements dans des missions de vérification présentant un risque. Il est impossible pour le vérificateur, font-ils remarquer, de sélectionner les missions de vérification qu'il désire incorporer à son portefeuille; un portefeuille se constitue plutôt indirectement, par l'intermédiaire d'un processus d'offres de service concurrentielles. L'analyse qui suit permet donc de formuler une fonction d'offre gráce à laquelle il est possible d'estimer les honoraires minimums que le vérificateur est disposé à accepter pour dispenser ses services à un nouveau client potentiel, étant donné ses placements existants. Les auteurs énoncent des propositions relatives aux conséquences de diverses caractéristiques du portefeuille sur les honoraires demandés. Enfin, ils traitent de l'incidence possible du risque lié à la vérification, envisagé dans l'optique du portefeuille, sur la structure du secteur de la vérification.  相似文献   

6.
Résumé. La profession comptable et de vérification fait grand usage de mots pour communiquer les niveaux d'incertitude dans des situations formelles et informelles s'étendant des déclarations du Manuel, en passant par les documents de travail jusqu'aux communications de tous les jours. La littérature comptable ne présente pas de recherches sur le niveau d'ambiguïté dans les interprétations de telles communications ou sur les facteurs qui pourraient potentiellement influencer cette ambiguïté. Cet article fournit un examen détaillé et approfondi de l'ambiguïté des interprétations dans la communication de l'incertitude en faisant usage d'un vocabulaire familier aux comptables et aux vérificateurs. Des niveaux de probabilité moyens furent calculés à partir des réponses à différents mots communément utilisés. Des analyses supplémentaires des interprétations furent entreprises pour comparer différentes méthodes de répondre aux communications. Pour ce faire, nous avons utilisé différentes façons pour évaluer l'impact sur les interprétations et pour comparer les réponses des sujets de différents groupes. Nous avons fait usage de différents designs expérimentaux afin d'assurer la validité interne nécessaire à l'interprétation des résultats de la recherche. La validité externe fut assurée par l'utilisation: de mots communs, de sujets raisonnablement sophistiqués, d'observations à différents moments et en faisant des comparaisons avec les résultats d'expériences dans d'autres cadres. Cet article démontre que l'ambiguïté existe et que cette ambiguïté est raisonnablement stable pour le vocabulaire du comptable. De même, l'ambiguïté peut être augmentée par l'utilisation de modes de réponse difficiles de la part de l'interprète, mais elle ne peut être réduite facilement.  相似文献   

7.
Abstract. Generally accepted auditing standards, auditing textbooks, and firm audit manuals indicate that, other things equal, the presence of significant monetary incentives based on financial results increases the inherent risk of material misstatement, and higher inherent risk should ordinarily cause the auditor to exercise a heightened degree of professional skepticism in conducting the audit. This article addresses the following basic research question: Are auditors sensitive to management's incentives to manage earnings? Research that examines whether auditors distinguish between explanations provided by managers with different incentives is important because audit standards indicate that inquiry of management can assist the auditor in evaluating significant unexpected differences. Two experiments were conducted. The first experiment explored whether management-buyout-induced incentives to make income-decreasing accruals affect auditors' judgments of the probability that a material misstatement exists. As predicted, auditors were sensitive to these incentives. The second experiment explored whether bonus-induced incentives affect auditors' judgments of the probability that a material misstatement exists. The auditors agreed that bonus plans such as the one in the experiment create incentives for management to make income-increasing or income-decreasing accruals depending on the terms of the plan. However, the auditors' judgments were unaffected by whether the unexpected difference and management's incentives were congruent. The auditors opted for potential audit effectiveness rather than potential audit efficiency by assuming that—on balance—management had incentives congruent with the unexpected overstatement. Résumé. Selon les normes de vérification généralement reconnues, les manuels de vérification et les guides de vérification des cabinets comptables, toutes choses égales par ailleurs, la présence d'encouragements monétaires substantiels basés sur les résultats financiers accroît le risque inhérent d'inexactitudes importantes, et un risque inhérent supérieur doit normalement amener le vérificateur à exercer davantage de vigilance dans la réalisation de sa mission de vérification. L'auteur s'intéresse à la question fondamentale suivante: les vérificateurs sont-ils sensibles aux motivations de la direction à user d'astuces comptables aux fins de l'établissement des bénéfices? Les recherches visant à déterminer si les vérificateurs établissent une distinction entre les explications fournies par les gestionnaires dont les motivations sont différentes revêtent beaucoup d'importance, compte tenu du fait que les normes de vérification indiquent que les demandes de renseignements de la direction peuvent aider le vérificateur à évaluer les écarts inattendus appréciables. Deux expériences ont été menées. La première avait pour but de déterminer si les motivations à agir sur les comptes de régularisation de manière à réduire les bénéfices, induites par un rachat de l'entreprise par les cadres, ont une incidence sur les jugements des vérificateurs relatifs à la probabilité d'inexactitudes importantes dans les déclarations. Conformément aux prévisions, les vérificateurs se montrent sensibles à ces motivations. La seconde expérience visait à déterminer si les motivations induites par les primes ont une incidence sur les jugements des vérificateurs en ce qui a trait à la probabilité de l'existence d'inexactitudes importantes. Les vérificateurs conviennent que les systèmes de primes, comme celui de la seconde expérience, motivent la direction à agir sur les comptes de régularisation de façon à augmenter ou réduire les bénéfices, selon les conditions du système. Toutefois, les jugements des vérificateurs ne sont pas influencés par le fait que l'écart inattendu dans les bénéfices et la motivation de la direction sont reliés. Les vérificateurs optent pour l'efficacité potentielle de la vérification plutôt que pour son efficience potentielle, en supposant que, dans l'ensemble, la direction présente des motivations qui vont dans le sens des surestimations inattendues en matière de bénéfices.  相似文献   

8.
Résumé. L'auteur propose l'utilisation de la théorie du raisonnement moral à titre de déterminant valide de la sous-évaluation du temps de vérification. En recourant à la méthodologie du laboratoire expérimental auprès d'un échantillon de 88 vérificateurs d'un cabinet national d'experts-comptables, l'auteur a observé une sous-évaluation réelle du temps de travail dans une tâche de vérification. Les résultats obtenus démontrent que la sous-évaluation est reliée de faαon systématique au niveau de raisonnement moral du vérificateur, mesuré à l'aide du test de jugement moral de Rest (Defining Issues Test ou DIT). Les participants dont les résultats au DIT étaient relativement faibles sont ceux qui sous-évaluaient le plus le temps de travail. Les résultats démontrent également que bien que l'insuffisance du temps alloué ait une incidence sur le comportement, la pression à l'uniformité est le facteur qui influe le plus sur la sous-évaluation. En somme, l'étude qui suit contribue de trois faαons importantes aux écrits touchant la vérification et la psychologie. Premièrement, elle établit l'importance du fait que la pression à l'uniformité est un antécédent de la sous-évaluation. Deuxièmement, elle montre que le raisonnement moral du vérificateur explique le comportement réel de sous-évaluation dans le contexte de pressions liées au travail. Troisièmement, elle révèle une sous-évaluation marquée en contexte de simulation de la vérification.  相似文献   

9.
Abstract. The nature of optimal equilibrium contracts for auditors hired by firms to certify the validity of firms' financial reports is studied in this paper. Financial reports may affect the interest rates at which firms can borrow funds; hence, without auditing, firms might be inclined to present favorable, if not altogether accurate, financial information. We observe that an optimal audit contract that allows auditors' contracts to be contingent on the audit report can take different forms depending on the parameter values; only in rare cases is an optimal contract independent of the audit report. Specifically, in some cases, an optimal contract is characterized by a payment for a favorable report that is larger than the payment for an unfavorable report. In other cases, the conclusion is reversed. We note, in contrast to the spirit of agency models, that an audit contract need not function in equilibrium as a motivational device inducing the auditor to work; in some cases, it serves as a means to transfer signaling costs from low-risk firms to high-risk firms. We also provide a rationale for mandating noncontingent audit contracts. In some circumstances equilibria in which auditing is informative cannot exist when contingent contracting is allowed; once contracts are required to be noncontingent, however, there exist equilibria in which auditing is informative. Résumé. Les auteurs étudient la nature des contrats d'équilibre optimaux relatifs aux services de vérificateurs visant l'attestation de la validité des états financiers des entreprises. Les rapports financiers peuvent influer sur les taux d'intérêt auxquels les entreprises peuvent emprunter; sans la vérification, les entreprises pourraient donc avoir tendance à présenter de l'information qui leur est favorable, faute d'être absolument exacte. Les auteurs remarquent qu'un contrat de vérification optimal conditionnel au contenu du rapport du vérificateur peut revêtir diverses formes, selon la valeur des paramètres; ce n'est qu'en de rares cas que le contrat optimal n'est pas conditionnel au rapport des vérificateurs. De façon spécifique, la rétribution est parfois plus élevée pour un rapport favorable que pour un rapport défavorable. Dans d'autres cas, c'est le contraire qui se produit. Les auteurs notent que contrairement au principe des modèles mandant-mandataire, il n'est pas nécessaire que le contrat de vérification se trouve en situation d'équilibre pour servir à la motivation du vérificateur; dans certains cas, il sert de mécanisme de transfert des coûts « indicateurs » des entreprises présentant un faible risque aux entreprises ayant un risque évevé. Les auteurs exposent également les principes de l'adjudication de contrats de vérification non conditionnels. Dans certains contextes, les équilibres pour lesquels la vérification est informative ne peuvent exister si l'on permet que les contrats soient conditionnels; dès qu'on exige que les contrats soient non conditionnels, cependant, on obtient des équilibres pour lesquels la vérification est informative.  相似文献   

10.
Résumé. Les travaux antérieurs qui ont porté sur la formulation d'hypothèses démontrent que les vérificateurs ont tendance, dans la formulation de leurs hypothèses initiales, à attribuer les fluctuations imprévues aux erreurs qui se produisent fréquemment dans les états financiers. L'on ne s'interroge cependant pas, dans ces travaux, sur la nature de l'incidence des hypothèses initiales sur la performance subséquente dans le diagnostic de l'erreur véritable. Les auteurs avancent que l'hypothèse formulée au départ et la capacité des vérificateurs de passer par la suite à une hypothèse différente interfèrent. Si, par exemple, l'hypothèse initiale était inexacte, il serait difficile pour les vérificateurs de changer d'hypothèse dans le diagnostic de l'erreur véritable. Plus encore, le fait d'invoquer initialement une erreur fréquente exacerberait cette difficulté. L'on a demandé aux vérificateurs-sujets de produire une hypothèse initiale relative à l'erreur après avoir pris connaissance d'un modèle de fluctuations dans lequel les ventes et les comptes clients étaient surévalués. Une fois formulée leur hypothèse initiale, la moitié des sujets recevaient de l'information supplémentaire révélant l'existence d'une erreur très fréquente (dans la démarcation des ventes) et l'autre moitié recevaient de l'information révélant l'existence d'une erreur peu fréquente (celle de la double comptabilisation d'une même vente). Conformément à leurs prévisions, les auteurs constatent que le fait, pour les vérificateurs, d'invoquer initialement l'erreur très fréquente (soit la démarcation des ventes) par rapport à une autre erreur moins fréquente avait par la suite une incidence sur leur performance dans le diagnostic des erreurs véritables. Plus précisément, les vérificateurs qui invoquaient l'erreur très fréquente dans leur hypothèse initiale obtenaient les meilleurs résultats lorsque cette erreur était l'erreur véritable, mais ils obtenaient les résultats les moins bons lorsque l'erreur peu fréquente se trouvait être l'erreur véritable. Les vérificateurs qui invoquaient une erreur moins fréquente dans leur hypothèse initiale affichaient, pour leur part, une performance relativement bonne (c'est-à-dire se situant entre la performance la meilleure et la performance la moins bonne), aussi bien lorsque l'erreur véritable était fréquente que lorsqu'elle était peu fréquente. Les auteurs analysent les conséquences de ces résultats sur l'efficience et l'efficacité de la vérification.  相似文献   

11.
Abstract. A newly issued AICPA auditing standard focuses attention on analytical procedures. Regression analysis has been shown to be a useful audit tool and is used to a limited extent in practice. This study compares a univariate regression-based decision rule with that of exponential smoothing. The effect on the regression-based decision method when additional input information is included to develop a multivariate model is also evaluated. Comparisons are accomplished by seeding various error patterns into the audit period data and evaluating the results of the various models. The results indicate that the regression-based decision model was at least as efficient and effective as the exponential smoothing-based model. Additional input information into the univariate regression model to develop a multivariate model did improve auditor decisions for some types of accounts but did not significantly affect the number of incorrect rejections and/or acceptances for other types. The multivariate model did improve the achieved precision of the univariate model but still did not reach desired levels. Résumé. Dans un Auditing Standards Procedures qu'il publiait récemment, l'AICPA se penche sur les procédés analytiques. L'analyse de régression s'est révélée un instrument de vérification utile et son emploi dans la pratique est modéré, Les auteurs comparent une règle de décision fondée sur une régression comportant une seule variable aléatoire avec celle du lissage exponentiel. L'incidence d'un supplément d'information à l'entrée sur la méthode de décision fondée sur la régression permet de mettre au point un modèle à plusieurs variables aléatoires, que les auteurs évaluent également. Les comparaisons sont réalisées en introduisant divers scénarios d'erreur dans les données de la période soumise à la vérification. Les résultats de l'étude indiquent que le modèle de décision fondé sur la régression est au moins aussi efficient et efficace que le modèle fondé sur le lissage exponentiel. L'introduction d'un supplément d'information dans le modèle de régression à une seule variable aléatoire de manière à créer un modèle à plusieurs variables aléatoires a de fait amélioré les décisions du vérificateur pour certains types de comptes, mais n'a pas eu d'incidence significative sur le nombre d'erreurs de première et de seconde espèces pour d'autres types de comptes. La performance du modèle à plusieurs variables aléatoires est de fait supérieure à celle du modèle à une seule variable aléatoire, sans toutefois permettre d'obtenir les niveaux de précision souhaités.  相似文献   

12.
Résumé. Les vérificateurs, les responsables de la réglementation et les universitaires s'intéressent à la pratique du ? leurre-prix ? et à sa relation avec l'objectivité du vérificateur. Cette question a même fait l'objet de plusieurs modèles analytiques. Ces théories n'ont cependant jamais été testées, principalement à cause de l'absence de données concrètes relatives à d'importantes variables contextuelles. Les auteurs de la présente étude élaborent un modèle à périodes multiples s'appliquant à la pratique du leurre-prix et à l'objectivité du vérificateur et l'expérimentent dans des marchés de laboratoire en recourant à la méthodologie de l'économique expérimentale. Leur étude vient enrichir la documentation existante sous deux rapports. D'abord, il s'agit de l'une des premières études à produire une argumentation empirique et à expérimenter la théorie de la relation entre la pratique du leurre-prix et l'objectivité. Ensuite, le modèle repose sur un raisonnement nouveau relatif à la pratique du leurre-prix et à sa relation avec l'objectivité du vérificateur. La pratique du leurre-prix et l'atteinte à l'objectivité, qui se manifestent indépendamment des coûts exogènes des opérations, sont le résultat de la prémisse d'une variation transversale dans les coûts et la qualité de la vérification et d'un avantage relatif à l'information qui échoit à un couple vérificateur attitré-client en ce qui a trait à l'évolution de ces dimensions de la vérification. Les auteurs ont appliqué le modèle pendant un certain nombre de périodes à des marchés de laboratoire réunissant plusieurs acheteurs et plusieurs vendeurs. Ils ont observé seize de ces marchés dans le but de vérifier la valeur prédictive du modèle en ce qui a trait aux prix et à l'information communiquée. L'expérience est concluante quant à la pratique du leurre-prix, mais elle n'est pas convaincante en ce qui a trait à la prévision exacte des prix. L'expérience confirme également la validité des prévisions relatives à l'information communiquée, les vendeurs ne s'éloignant de la vérité (et faisant une entorse à l'objectivité) que lorsque les profits supplémentaires qu'ils sont susceptibles d'en retirer sont supérieurs aux coûts supplémentaires que risque d'entraîner la communication d'information inexacte. L'on peut obtenir les données relatives aux marchés de laboratoire utilisées dans le présent document en en faisant la demande aux auteurs.  相似文献   

13.
Résumé. Cette étude se penche sur l'effort en terme de temps de révision des chefs de groupe en vérification (tel que reflété par leurs estimations du temps requis pour la révision du dossier de vérification) et la mesure dans laquelle cet effort est orienté par une autre activité importante du chef de groupe: la planification initiale de la mission de vérification. La planification initiale de la vérification est conditionnée par l'identification de certaines zones critiques dans la note de planification. Les pressions temporelles et les caractéristiques individuelles du vérificateur sont également étudiées, car les recherches antérieures en vérification semblent indiquer qu'elles sont susceptibles d'influencer la révision du chef de groupe. Cette analyse est fondée sur les réponses, provenant de soixante-treize chefs de groupe de dix grands cabinets d'experts-comptables, à un cas de vérification. Les résultats indiquent que: 1) les chefs de groupe font preuve d'un consensus raisonnable en budgétisant plus de la moitié du temps de vérification pour la révision, 2) le plan initial de vérification oriente leur révision ultérieure, 3) les pressions au niveau du temps n'influencent pas de façon significative leurs estimations relatives au temps de révision, et 4) l'appartenance à un cabinet, le niveau d'expérience de vérificateur, et l'effort de planification initiale sont reliés aux différences des pratiques et des perceptions de la révision par le chef de groupe. La fin de cet article comporte une discussion des conséquences de ces résultats en regard de la pratique et des recherches ultérieures.  相似文献   

14.
Abstract. This study investigates coefficient bias and heteroscedasticity resulting from scale differences in accounting levels-based research designs analytically and using simulations based on accounting data. Findings indicate that including a scale proxy as an independent variable is more effective than deflation at mitigating coefficient bias, even if the proxy is 95 percent correlated with the true scale factor. In fact, deflation can worsen coefficient bias. Also, deflation often does not noticeably reduce heteroscedasticity and can decrease estimation efficiency. White (1980) standard errors are close to the true ones in regressions using undeflated variables. Replications of specifications in three recent accounting studies confirm the simulation findings. The findings suggest that when scale differences are of concern, accounting researchers should include a scale proxy as an independent variable and report inferences based on White standard errors. Résumé. Les auteurs examinent, tant sur le plan analytique qu'au moyen de simulations basées sur les données comptables, la distorsion des coefficients et l'hétéroscédasticité résultant des différences d'échelle dans les plans de recherche comptable basés sur les niveaux. Leurs constatations révèlent que l'inclusion d'un substitut d'échelle à titre de variable indépendante est plus efficace que la déflation pour atténuer la distorsion relative au coefficient, même si le substitut présente une corrélation de 95 pour cent avec le véritable facteur d'échelle. En fait, la déflation peut accentuer la distorsion relative au coefficient. Aussi, il arrive souvent que la déflation, sans réduire de façon appréciable l'hétéroscédasticité, puisse diminuer l'efficience de l'estimation. Les erreurs-types de White (1980) se rapprochent des erreurs véritables dans les régressions faisant appel à des variables non déflatées. La répétition des mêmes caractéristiques dans trois études comptables récentes confirme les résultats de la simulation. Les conclusions de l'étude donnent à penser que lorsque les différences d'échelle sont sujet de préoccupation, les chercheurs en comptabilité devraient faire intervenir un substitut d'échelle à titre de variable indépendante et formuler les inférences à partir des erreurs-types de White.  相似文献   

15.
Abstract. This paper considers the effects of a mandated audit when the firm operates in a contingent-claims production economy. An adverse selection problem is introduced by assuming that random state realization and resulting productive outcome is not observable to consumer-investors, but is observable to the firm manager. This raises the possibility that managers may cheat by reporting a lower outcome than actual, and appropriating the difference. Such behavior is controlled, but not eliminated, by the presence of a costly mandated audit, which may detect such cheating. Managers compete for positions in a competitive managerial labor market, and managerial effort is assumed to be observable. Despite this, cheating managers do not deliver a first-best level of effort in the model and this is a second cost to society of the assumed information asymmetry. The economic impact of changes in audit intensity on manager and investor decision making is examined. Résumé. L'auteur étudie, dans l'article qui suit, les conséquences de la vérification demandée par les instances supérieures de l'entreprise lorsque cette dernière ?uvre dans une économie de production de titres de créance conditionnels. Un problème qui complique la sélection tient à l'hypothèse selon laquelle la réalisation aléatoire de l'état de la nature et le rendement qui en découle ne peuvent être observés par les consommateurs-investisseurs, mais peuvent l'être par le gestionnaire de l'entreprise. Ainsi est-il possible pour les gestionnaires de tromper les consommateurs-investisseurs en faisant état d'un rendement inférieur au rendement réel et en s'appropriant la différence. Ce genre de comportement peut être contrôlé, mais non supprimé, grâce à une vérification demandée par les instances supérieures de l'entreprise, opération coûteuse mais qui peut permettre de détecter les fraudes. Les gestionnaires se disputent des postes administratifs dans un marché concurrentiel. L'on suppose que l'effort qu'ils fournissent est observable. Malgré cela, les gestionnaires qui fraudent ne fournissent pas un effort de tout premier ordre à l'Intérieur du modèle, et c'est un second coût pour la société que l'asymétrie supposée de l'information. L'auteur analyse l'incidence économique de la modification de l'intensité de la vérification sur la prise de décisions des gestionnaires et des investisseurs.  相似文献   

16.
Résumé. Dans le présent article, les auteurs font état des résultats d'une recherche dans le cadre de laquelle des vérificateurs expérimentés ont interprété les critères du Statement of Financial Accounting Standards No. 5 (Norme n° 5): Accounting for Contingencies (Comptabilisation des éventualités). Cette recherche est axée sur deux questions: 1) la nature et le degré du consensus qui se dégage des interprétations des vérificateurs et 2) la mesure dans laquelle ces interprétations dépendent de la nature de la perte éventuelle. Quarante-cinq vérificateurs expérimentés (chefs de groupe, directeurs et associés) issus de cabinets d'experts-comptables figurant parmi les «huit grands» se sont prêtés à un exercice visant à recueillir leur interprétation des critères de probabilité de la Norme n° 5. Nous avons centré notre analyse sur le seuil auquel s'établit la distinction entre une perte «improbable» et une perte «plausible», et entre une perte «plausible» et une perte «probable». Les résultats de nos recherches ont indiqué: 1) un seuil moyen respectif de 0, 16 et 0,68; 2) un consensus plus manifeste chez les vérificateurs dans le cas du premier seuil que dans le cas du second; 3) un premier seuil beaucoup plus bas que ne l'avaient laissé supposer les précédents travaux de recherche; et 4) dans l'ensemble, l'absence de lien entre les seuils et la nature de la perte éventuelle.  相似文献   

17.
Abstract. A Bayesian model for nonsampling errors made by the auditor is investigated to determine the effects of such errors on audit inferences. Predictive distributions are used to illustrate that for “realistic” audit situations, Type II errors will have little effect on inferences for a given level of Type I error. Type I errors are shown to play a more critical role in determining the acceptability of an internal control. Résumé. Un modèle Bayesien relatif aux erreurs, de nature autre qu'échantillonnale, commises par le vérificateur est étudié afin de déterminer les effets de telles erreurs sur les inférences en vérification. Des distributions de prédiction sont employées pour illustrer le fait qu'en situation de vérification «réaliste», les erreurs de deuxième espèce auront peu d'effet sur les inférences pour un niveau donné d'erreur de première espèce. Il est montré que les erreurs de première espèce jouent un rôle plus critique en ce qui a trait à la détermination du caractère acceptable d'un procédé de contrôle interne.  相似文献   

18.
Abstract. In conventional dollar unit sampling (DUS) the “alpha” risk of erroneously rejecting an acceptable accounting population generally can be held to reasonable levels by working with a sufficiently large audit sample. Kaplan (1975) has discussed how such a DUS sample size may be chosen when controlling both the alpha and beta risk. However, as illustrated in this paper, neither Kaplan's procedure nor other previously developed DUS procedures provide a workable method that effectively controls for both the alpha and beta risk with small sample sizes or with accounting populations that have comparable understatement and overstatement errors. This paper presents a hypothesis-testing approach to DUS that provides a solution to this problem. “Power curves” based on a large number of simulation studies of the new approach are presented in order to illustrate the reliability of the approach. Comparisons are also made with the corresponding power curves for two Stringer-based confidence bound methods of DUS. In these comparisons, the new hypothesis-testing approach to DUS appears to provide more favorable audit performance with smaller sample sizes than do the conventional DUS methods, although the primary advantage of the approach lies in its ability to control for both effectiveness (beta risk) and efficiency (alpha risk). Résumé. Dans les méthodes traditionnelles de sondage des unités monétaires (SUM), le risque «alpha», soit le risque de rejeter à tort une population comptable acceptable, peut en général être maintenu à des niveaux raisonnables si l'on travaille avec un échantillon de vérification suffisamment grand. Kaplan (1975) a traité de la façon de choisir une taille d'échantillon suffisamment grande aux fins du SUM dans les cas où l'on contrôle à la fois le risque alpha et le risque bêta. Toutefois, comme le démontrent les auteurs, ni la méthode de Kaplan ni les autres méthodes de SUM mises au point précédemment n'offrent de technique simple permettant de contrôler efficacement le risque alpha en même temps que le risque bêta avec de petites tailles d'échantillon ou des populations comptables présentant des erreurs de sous-estimation et de surestimation comparables. Les auteurs suggèrent une méthode de test d'hypothèse, relativement au SUM, qui résout ce problème. Ils présentent des «courbes de puissance», fondées sur un grand nombre de cas de simulation de la nouvelle méthode, dans le but d'en illustrer la fiabilité. Ils établissent également des comparaisons avec les courbes de puissance correspondantes pour deux méthodes de limite de confiance du SUM, fondées sur les travaux de Stringer. Dans ces comparaisons, les nouvelles méthodes de test d'hypothèse en ce qui a trait au SUM semblent offrir un meilleur rendement de vérification lorsque les tailles d'échantillon sont petites que les méthodes traditionnelles de SUM, bien que l'avantage primordial de la méthode réside dans le fait qu'elle permet de contrôler à la fois l'efficacité (risque bêta) et l'efficience (risque alpha).  相似文献   

19.
20.
Abstract. This paper investigates in multiple agent settings the fundamental issue of whether a contractual coordination and incentives mechanism that induces equilibrium behavior is implementable. Implementability means that the mechanism, when put into effect by the principal, produces an equilibrium desired by him in the agents' subgame that is not Pareto-dominated by another equilibrium. Strong implementability of a mechanism means that the equilibrium desired by the principal Pareto-dominates all other equilibria. The main result shows that in a moral hazard setting, strong implementability is guaranteed under regularity conditions imposed on the net profit from joint production, and monotonicity of compensation and production in effort. A substantial class of distribution functions, including the beta distributions, satisfy these regularity conditions. These conditions appear to be “minimal” sufficient. Through examples, it is shown that strong implementability is generally not possible. An example also shows that even if the optimal mechanism relies on a more stringent equilibrium concept (dominant strategy equilibria) it may still be not implementable even if there is a unique equilibrium of the stronger type. The proof of the theorem introduces the technique of the Ky Fan Conditions to check the consistency of systems of inequalities that define equilibria. The paper explores various ways to overcome the implementability problem in analytical models to derive testable propositions in accounting choice settings such as budgeting, transfer pricing, auditing, and setting and enforcing standards. Résumé. Les auteurs de l'article qui suit étudient, dans les situations où les mandataires sont multiples, la question fondamentale de la possibilité de mettre en place des mécanismes de coordination et de motivation permettant d'obtenir un comportement d'équilibre. La possibilité de mettre en place ce genre de mécanisme suppose que son application par le mandant produit l'équilibre désiré par ce dernier, à travers le comportement des mandataires qui n'est pas dominé, selon la loi de Pareto, par la recherche d'un autre équilibre. Il découle principalement de cette étude qu'en situation de risque moral, la possibilité de mise en place est assurée lorsque, dans une situation de co-production où le mandant ne peut isoler la contribution de chaque mandataire au bénéfice total, la fonction de production ainsi que le mécanisme de compensation sont uniformes ou que les mécanismes produisent des équilibres de Nash uniques. La forte possibilité de mise en place de ce genre de mécanisme signifie que l'équilibre souhaité par le mandant domine, selon la loi de Pareto, tous les autres équilibres. Ce résultat donne les conditions minimales suffisantes pour que l'équilibre de Nash poursuivi dans le comportement des mandataires soit également l'équilibre optimal selon la loi de Pareto de l'ensemble des équilibres de Nash. Les auteurs démontrent, au moyen de divers exemples, que cela est en général irréalisable. Ils illustrent également par un exemple que même si le mécanisme optimal repose sur une notion d'équilibre plus rigoureuse (les équilibres de la stratégie dominante), il se peut qu'il demeure impossible de le mettre en place, même lorsqu'il existe un équilibre unique du type le plus fort. Les auteurs font également état du fait que le problème de la possibilité de mise en place est commun à toutes les situations dans lesquelles un mécanisme de coordination vise une réponse d'équilibre particulière de la part des mandataires. Le problème existe aussi particulièrement, et peut-être de façon plus aiguë, en présence d'un risque moral assorti d'autres asymétries de l'information (une «eélection opposée» par exemple). La preuve du théorème fait intervenir une nouvelle technique analytique, celle des conditions Ky Fan, pour vérifier la cohérence des systèmes d'inégalités qui définissent les équilibres. Les auteurs explorent les diverses façons de surmonter le problème de la possibilité de mise en place du mécanisme dans les modèles analytiques, de manière à dériver des propositions pouvant être testées dans des situations de choix comptable comme l'établissement de budgets, la détermination des prix de cession, la vérification et l'établissement et l'application de normes.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号