首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
2.
Résumé. Les auteurs font appel aux théories proposées par Darrough et Stoughton (1990) afin de mieux comprendre pourquoi certaines entreprises incorporent volontairement des prévisions directionnelles à leurs rapports annuels alors que d'autres s'en abstiennent. Les données qu'ils recueillent sont conformes à leurs prédictions selon lesquelles la politique d'information d'une entreprise reflète ses préoccupations à l'égard de la cote d'évaluation que lui attribue le marché des capitaux et à l'égard de la concurrence à laquelle elle doit faire face sur le marché des produits. Les auteurs constatent que pour les entreprises dont l'information est favorable, la probabilité de produire de l'information prévisionnelle croît lorsque l'entreprise a besoin de capitaux, mais décroît lorsqu'un nouveau concurrent menace d'entrer sur le marché. L'inverse est vrai pour les entreprises dont l'information est défavorable. Ces résultats viennent étayer plus solidement, sur le plan empirique, l'observation selon laquelle l'hypothèse familière de l'information favorable vérifiée dans les travaux portant sur la prévision des résultats par la direction n'offre qu'une explication partielle à la décision de produire de l'information prévisionnelle. Chose intéressante, toutefois, même une fois contrôlés les facteurs relatifs au marché des capitaux et au marché des produits, les données révèlent toujours une distorsion globale dans la présentation volontaire d'information. Elles viennent également légitimer les préoccupations de la CVMO à l'égard de cette distorsion dans la présentation volontaire d'information. Seulement 17,5 pour cent des prévisions de l'échantillon sélectionné par les auteurs indiquent une baisse par rapport aux résultats de l'exercice précédent. Toutefois, par contraste avec les préoccupations de la CVMO en ce qui a trait à l'absence générale d'information prospective dans les rapports annuels, 35,9 pour cent des entreprises de l'échantillon constitué par les auteurs incorporent des prévisions directionnelles à leur rapport de gestion ou à d'autres sections de leur rapport annuel.  相似文献   

3.
Abstract. This paper reports an investigation of some data and method effects on the predictive accuracy of LIFO/FIFO classification models. The methods compared were probit, ID3, and neural networks. Experiments were conducted to study the effect of data characteristics on classification accuracy and the situations under which a particular method performs better. Hold-out samples were used to calculate the predictive accuracy. The results indicate that (1) different methods identify different factors that affect the LIFO/FIFO choice and (2) in hold-out tests, neural network models have the highest average predictive accuracy, whereas ID3 models have the lowest. Neural network models are the best when dominant nominal variables are present; otherwise, probit models are the best. Résumé. Les auteurs rapportent les résultats d'une analyse de l'incidence de certaines données et de certaines méthodes sur le pourcentage de prévisions exactes dérivées des modèles de classification selon l'épuisement à rebours et l'épuisement successif. Ils comparent la méthode probit, la méthode ID3 et la méthode des réseaux neuronaux et procèdent à des expériences destinées à l'étude de l'incidence des caractéristiques de certaines données sur ce pourcentage et des situations dans lesquelles une méthode particulière donne de meilleurs résultats. Les auteurs ont recours, pour la démonstration, à des échantillons à partir desquels est calculé le pourcentage de prévisions exactes. Les résultats révèlent que 1) les facteurs influant sur le choix de l'épuisement à rebours ou de l'épuisement successif diffèrent selon la méthode utilisée et que 2) dans les tests ayant servi à la démonstration, les modèles de réseaux neuronaux présentent le meilleur pourcentage moyen de prévisions exactes, alors que les modèles ID3 ont le plus faible pourcentage de prévisions exactes. Les modèles de réseaux neuronaux donnent les meilleurs résultats lorsqu'il y a des variables nominales dominantes, faute de quoi les modèles probit sont les meilleurs.  相似文献   

4.
Résumé. Cette première étude canadienne des prévisions de bénéfices comptables effectuées par les analystes financiers et publiées par l'Institutional Brokers Estimate System (IBES) s'intéresse aux révisions dans les prévisions moyennes de bénéfice par action, pour 159 à 188 entreprises, de 1985 à 1987. L'étude utilise une approche résiduelle pour analyser l'évolution des rendements lors de l'annonce des révisions les plus importantes. Les principaux résultats sont les suivants. Premièrement, l'investisseur qui disposerait des révisions au début du mois où elles sont transmises aux abonnés pourrait réaliser des rendements anormaux. Deuxièmement, l'abonné qui transige sur la base de l'information qu'il reçoit pourrait également développer des stratégies de placement qui généreraient des rendements excédentaires importants. Il devrait pour cela tenir compte simultanément de l'importance relative des révisions, du secteur d'activité des entreprises et de l'horizon des prévisions. Troisièmement, lorsque les prévisions sont publiées, l'information contenue dans les changements importants dans les prévisions a déjà été partieliement anticipée par le marché. Ce résultat confirme ceux obtenus aux États-Unis et en Grande-Bretagne. Enfin, les révisions importantes coïncident avec une période de rendements anormaux. On ne peut cependant pas mettre en évidence de lien de causalité entre la divulgation de ces révisions et les rendements anormaux, car la date où l'information parvient aux utilisateurs ne peut ètre déterminée avec précision. Ces résultats ne varient pas selon le modèle de prévision des rendements utilisé. Ils ne constituent vraisemblablement pas une marque d'inefficience du marché canadien, car l'acquisition, le traitement et l'analyse des données, ainsi que les frais de transaction représentent des coûts importants qui limitent les rendements nets de stratégies de placement basées sur ces données.  相似文献   

5.
Abstract. This paper empirically assesses the degree to which current cost data as required by Financial Accounting Standards Statement No. 33 might implicitly be used by equity market participants. Studies to date, focusing on income measures, documented little or no effect of the data on prices. We argue here that income was the wrong focus. Instead, because current costs can be used to construct quantity indexes and hence measure real productive growth of the firm, the focus should be on the test of association between real productivity (obtained by use of current cost data) and stock returns rather than between income measures and stock returns. Therefore, this paper tests for whether growth measure (of real productive output) which can be obtained by utilizing current cost information and which cannot be obtained without such information, can explain cross-sectional variation in security returns beyond measures based on historical costs. Returns should be more highly associated with current cost based measures of real productive growth than with similar measures based on historical cost, if the current cost data have value. Like the time-series macroeconomic analysis done by Fama (1981), our cross-sectional microeconomic analysis relying on current cost accounting data suggests that security returns are positively related to real productive activity. Moreover, the tests seem to suggest that current cost data, on the margin, reflect productive activity information that may not be already contained in historical cost accounting data. Résumé. Cet article évalue de façon empirique jusqu'à quel point les données au coût actuel requises en vertu de l'énoncé no. 33 (Financial Accounting Standards Statement No. 33) pourraient implicitement être utilisées par les participants au marché des actions. Les études antérieures, portant sur des mesures de bénéfice, ont conclu à peu ou pas d'effet sur les cours imputable à ces données. Nous soutenons ici que le bénéfice ne constituait pas le bon centre d'intérêt. Au lieu de cela, du fait que les coûts actuels peuvent être utilisés afin d'élaborer des indices de quantité et, de là, mesurer la croissance de la productivité réelle de la firme, le centre d'intérêt devrait plutôt tourner autour d'un test du lien entre la productivité réelle (obtenue par l'utilisation des données au coût actuel) et les rendements des actions plutôt qu'entre des mesures de bénéfice et le rendement des actions. Dès lors, cet article examine si une mesure de croissance (de la productivité réelle) pouvant être obtenue à partir de l'information au coût actuel et qui ne peut être dégagée sans une telle information, peut expliquer davantage les variations (en coupe transversale) des rendements des titres que ne le font des mesures fondées sur les coûts d'origine. La relation entre les rendements et les mesures de productivité réelle fondées sur le coût actuel devrait être plus robuste que celle entre des mesures similaires fondées sur le coût d'origine, si tant est que les données au coût actuel présentent une valeur. À l'instar de l'analyse macroéconomique de séries chronologiques effectuée par Fama (1981), notre analyse microéconomique en coupe transversale fondée sur des données au coût actuel semble indiquer que les rendements des titres sont reliés positivement à l'activité productive réelle. En outre, les tests laissent supposer qu'à la marge, les données au coût actuel reflètent une information d'activité productive qui, actuellement, pourrait ne pas être véhiculée par les données comptables exprimées au coût d'origine.  相似文献   

6.
Résumé. Les méthodes d'inférence de probabilités subjectives que sont l'amplitude directe et la bissection ont été comparées par l'auteur en ce qui a trait à l'exactitude, telle que déterminée par l'environnement (fréquence relative), des probabilités résultant de l'application de ces méthodes et à l'acceptabilité des méthodes d'inférence. Chaque participant à l'expérience a utilisé les deux méthodes et attribué à chacune d'elles une cote d'acceptabilité. L'auteur a mis à la disposition des sujets un logiciel d'inférence interactive, comprenant l'affichage graphique sous forme d'histogramme des probabilités selon les deux méthodes d'inférence, afin de les aider et d'assurer une comparaison plus raffinée des méthodes. Des étudiants de deuxième cycle diplômés en gestion, bien renseignés tant sur le contexte de la tâche que sur les probabilités subjectives, se sont prêtés à l'expérience. L'inférence directe a donné des probabilités subjectives beaucoup plus exactes que la bissection et s'est révélée beaucoup plus acceptable aux yeux des participants.  相似文献   

7.
Résumé. L'auteur examine comment le risque d'épuisement des obligations fiscales des sociétés avant la déduction des intérêts débiteurs influe sur leur niveau d'endettement. L'étude diffère des travaux précédents sous trois aspects: 1) elle fait usage de données compilées par l'Internal Revenue Service (IRS) à partir des déclarations de revenus des sociétés plutôt que de données comptables; 2) elle mesure le risque d'épuisement de l'impôt avec plus de précision; et 3) elle fait appel à une méthode reposant sur les séries chronologiques et le calcul des différences d'ordre 1, de sorte que les sociétés servent d'élément d'autocontrôle entre années successives. Ces innovations méthodologiques réduisent les distorsions attribuables à l'erreur de mesure et aux variables omises que l'on retrouvait dans les travaux précédents. Les résultats donnent à penser que, toutes choses étant égales par ailleurs, le risque élevé d'épuisement de l'impôt amène les sociétés à réduire leur utilisation du levier financier. L'étude fournit également des données confirmant pour la première fois que les impôts des particuliers influent de manière sensible sur le niveau d'endettement des sociétés. Les effets des décisions relatives au niveau d'endettement sur d'autres variables font également l'objet de tests dont les résultats confirment les prévisions énoncées dans les travaux théoriques précédents.  相似文献   

8.
Résumé. Les auteurs analysent le comportement stratégique des entreprises en ce qui a trait à la diffusion publique de l'information financière dans 673 communications publiées avant, pendant et après quatre grèves syndicales au Canada. L'information financière, publiée dans la presse écrite au cours des périodes auxquelles les auteurs se sont intéressés, comportait des données quantitatives et qualitatives au sujet des entreprises échantillonnées. Le comportement stratégique suppose la désignation d'un acteur par un autre dans l'information communiquée. Les analyses ont révélé que la fréquence des communications était beaucoup plus élevée pendant les grèves et immédiatement avant qu'au cours d'autres périodes. Des techniques d'analyse de réseau ont été employées pour examiner les liens unissant sept groupes d'acteurs qui ont été désignés dans l'information communiquée. Les réseaux de communication d'information ont augmenté en densité au cours des grèves mais se sont décentralisés, L'analyse confirme l'hypothèse selon laquelle les interactions stratégiques dans l'information communiquée sont multilatérales et dynamiques. Il serait donc simpliste de chercher à modéliser la communication d'information financière dans le cadre de négociations collectives sous forme de joute bilatérale à laquelle se livrent les parties sur une période donnée. La gestion de la communication d'information dans ce contexte semble s'opérer dans une conjoncture économique et sociale complexe.  相似文献   

9.
Ce papier porte sur l'analyse de la dynamique des inégalités de revenu au Togo. En se fondant sur les données des enquêtes QUIBB 2006, 2011 et 2015, et en utilisant la méthode de décomposition d'Oaxaca‐Blinder pour les estimations économétriques, les résultats montrent une augmentation des inégalités de revenu entre 2006 et 2015. Les résultats révèlent en outre une augmentation des inégalités sur la même période si on considère le genre et le milieu de résidence. Cependant, il se dégage que l'âge, le milieu de résidence, le niveau d'éducation sont les facteurs qui expliquent significativement les inégalités de revenu entre les hommes et les femmes d'une part et que le niveau d'éducation, la taille du ménage et la région de résidence expliquent significativement les inégalités de revenu entre le milieu urbain et rural d'autre part. Nous utilisons par ailleurs le modèle DER pour capter l'effet de la part du revenu affectée aux différentes consommations des ménages sur les inégalités globales. Les résultats montrent que la part du revenu affecté aux dépenses alimentaires et non alimentaires constituent l'essentiel des sources des inégales entre les ménages.  相似文献   

10.
L'objectif de cet article est de déterminer empiriquement la nature de la relation de causalité entre consommation d'énergie électrique et croissance économique pour cinq pays d'Afrique Centrale. La méthodologie utilisée repose sur un cadre multivarié théoriquement fondé et des récents développements en économétrie des données de panel des: tests de racine unitaire, tests de cointégration, estimateurs des moindres carrés ordinaires entièrement modifiés (FMOLS) et moindres carrés ordinaires dynamiques (DOLS) et du modèle vectoriel à correction d'erreur (VECM). Sur la période 1990–2015, les principaux résultats mettent en évidence une causalité bidirectionnelle entre la consommation d'énergie électrique et la croissance économique à la fois à court et à long terme. Celle‐ci reste stable même après contrôle pour le capital et le travail. Ces résultats constituent ainsi une base solide pour la formulation des politiques et des programmes énergétiques appropriées qui favoriseraient l'accès à l'énergie électrique et la croissance économique.  相似文献   

11.
Abstract. The role of accounting information in investment decision making and capital markets has been investigated by exploring fundamental connections between accounting numbers and market-based phenomena of interest. Studies of bond rating predictions have described how bond raters make their judgments as a function of accounting and other data. This study expands our knowledge of these fundamental connections by investigating whether bond ratings have a direct impact on bond yields and how accounting information impacts the bond yields—directly, or indirectly through the bond ratings. A simultaneous equation system is constructed using firm-specific financial information, bond ratings by two major rating agencies, and initial offering yields. The sample used in this study consists of 189 new issue industrial bonds rated by both Standard & Poor's and Moody's that were issued from 1981 through 1985. Tests of alternative structural model configurations provide evidence regarding the interrelations between bond ratings, financial information, and bond yields. The improvements in the statistical methodology lead to a better understanding and assessment of the relative roles of bond ratings and financial information in setting bond prices. The use of simultaneous equation modeling allows the interrelations among yields, ratings, and financial information to be assessed and allows the direct and indirect effect of financial information on yields to be estimated. This results in the ability to conclude that financial information affects bond ratings, that bond ratings directly affect bond yields, that financial information also directly affects bond yields, and that financial information indirectly affects bond yields through its effect on ratings. The role of accounting information in setting bond market prices is clarified using this approach. Résumé. On a étudié le rôle de l'information comptable dans la prise de décisions d'investissement et sur les marchés financiers en explorant les liens fondamentaux entre les données comptables et les phénomènes d'intérêt fondés sur le marché. Les études portant sur les prédictions relatives à la notation des obligations ont décrit de quelle façon les services d'information financière jugeaient de la valeur des obligations à partir de données, comptables et autres. Les auteurs de la présente étude élargissent la connaissance de ces liens fondamentaux en analysant la possibilité que la notation des obligations ait une incidence directe sur leur rendement et la façon dont l'information comptable agit sur le rendement des obligations, que ce soit directement, ou indirectement par l'intermédiaire de leur notation. Les auteurs constuisent un système d'équations simultanées à l'aide de l'information financière propre à l'entreprise, des cotes accordées aux obligations par deux services majeurs d'informations financières et du rendement des émissions initiales. l'échantillon qui a servi à l'étude compte 189 nouvelles émissions d'obligations dans le secteur industriel, cotées à la fois par Standard & Poor's et Moody's, qui ont été émises entre 1981 et 1985. Les tests appliqués aux configurations de rechange du modèle structurel établissent clairement les relations entre la notation des obligations, l'information financière et le rendement des obligations. Les progrès de la méthodologie statistique ont mené à une meilleure compréhension et une meilleure évaluation des rôles relatifs de la notation des obligations et de l'information financière dans l'établissement du prix des obligations. La modélisation d'équations simultanées permet, d'une part, l'évaluation des relations entre rendement, notation et information financière et, d'autre part, l'estimation des conséquences directes et indirectes de l'information financière sur le rendement qui doit être estimé, ce qui amène à conclure que l'information financière a une incidence sur la notation des obligations, que la notation des obligations exerce une influence directe sur le rendement des obligations, que l'information financière touche également de manière directe le rendement des obligations et qu'elle a une incidence indirecte sur le rendement des obligations, par le truchement de son incidence sur la notation. Le rôle de l'information comptable dans l'établissement de la valeur marchande des obligations est éclairci grâce à cette méthode.  相似文献   

12.
Abstract. In decentralized economies with transaction costs in contracting, it is demonstrated that an endogenous demand exists for the recording of events that affect the firm's value (“historical events”) and for the perpetual maintenance of audit trails to those records. A demand for the aggregation of records into reports (such as the financial statements) is derived from the costliness of the design, implementation and processing of contracts based on the primary data. But if principals do not control the recording or the reporting process, the agents will distort both the records and reports to their advantage. This gives rise to a demand for auditing services, which in turn creates a demand for audit trails, the causal links to verifiable facts underlying the records. Due to the costs of verification, with sufficient penalties and a positive probability of detection, random sample verification is as efficient as exhaustive verification. For random sample verification to be effective, the maintenance of audit trails for the life of the firm is necessary. Résumé. Dans les économies décentralisées où les contrats mandants-mandataires ajoutent des coûts aux opérations, l'expérience démontre qu'il existe une demande endogène pour l'enregistrement des événements qui affectent la valeur de l'entreprise («événements historiques») et le maintien perpétuel de pistes de vérifications sous-jacentes à ces enregistrements. La sollicitation d'une agrégation de ces enregistrements sous forme de rapports (les états financiers, par exemple) procède du fait que la conception, la mise en place et le traitement des contrats basés sur les données d'origine sont peu coûteux. Mais si les mandants ne contrôlent ni renregistrement ni le processus de communication de l'information, les mandataires sont susceptibles d'altérer les enregistrements aussi bien que les rapports en leur faveur. Cette constatation est à l'origine de la demande de services de vérification qui, à son tour, crée une demande de pistes de vérification, c'est-à-dire l'identification des liens accidentels des faits vérifiables sous-jacents avec les enregistrements. Compte tenu des coûts de vérification, lorsque des pénalisations suffisantes et une bonne probabilité de détection existent, la vérification à partir d'échantillons aléatoires constitue une vérification aussi efficace qu'une verification exhaustive. Pour que la vérification à partir d'échantillons aléatoires soit efficace, elle exige cependant le maintien perpétuel des pistes de vérification.  相似文献   

13.
Résumé. Les vérificateurs, les responsables de la réglementation et les universitaires s'intéressent à la pratique du ? leurre-prix ? et à sa relation avec l'objectivité du vérificateur. Cette question a même fait l'objet de plusieurs modèles analytiques. Ces théories n'ont cependant jamais été testées, principalement à cause de l'absence de données concrètes relatives à d'importantes variables contextuelles. Les auteurs de la présente étude élaborent un modèle à périodes multiples s'appliquant à la pratique du leurre-prix et à l'objectivité du vérificateur et l'expérimentent dans des marchés de laboratoire en recourant à la méthodologie de l'économique expérimentale. Leur étude vient enrichir la documentation existante sous deux rapports. D'abord, il s'agit de l'une des premières études à produire une argumentation empirique et à expérimenter la théorie de la relation entre la pratique du leurre-prix et l'objectivité. Ensuite, le modèle repose sur un raisonnement nouveau relatif à la pratique du leurre-prix et à sa relation avec l'objectivité du vérificateur. La pratique du leurre-prix et l'atteinte à l'objectivité, qui se manifestent indépendamment des coûts exogènes des opérations, sont le résultat de la prémisse d'une variation transversale dans les coûts et la qualité de la vérification et d'un avantage relatif à l'information qui échoit à un couple vérificateur attitré-client en ce qui a trait à l'évolution de ces dimensions de la vérification. Les auteurs ont appliqué le modèle pendant un certain nombre de périodes à des marchés de laboratoire réunissant plusieurs acheteurs et plusieurs vendeurs. Ils ont observé seize de ces marchés dans le but de vérifier la valeur prédictive du modèle en ce qui a trait aux prix et à l'information communiquée. L'expérience est concluante quant à la pratique du leurre-prix, mais elle n'est pas convaincante en ce qui a trait à la prévision exacte des prix. L'expérience confirme également la validité des prévisions relatives à l'information communiquée, les vendeurs ne s'éloignant de la vérité (et faisant une entorse à l'objectivité) que lorsque les profits supplémentaires qu'ils sont susceptibles d'en retirer sont supérieurs aux coûts supplémentaires que risque d'entraîner la communication d'information inexacte. L'on peut obtenir les données relatives aux marchés de laboratoire utilisées dans le présent document en en faisant la demande aux auteurs.  相似文献   

14.
Abstract. This study investigates coefficient bias and heteroscedasticity resulting from scale differences in accounting levels-based research designs analytically and using simulations based on accounting data. Findings indicate that including a scale proxy as an independent variable is more effective than deflation at mitigating coefficient bias, even if the proxy is 95 percent correlated with the true scale factor. In fact, deflation can worsen coefficient bias. Also, deflation often does not noticeably reduce heteroscedasticity and can decrease estimation efficiency. White (1980) standard errors are close to the true ones in regressions using undeflated variables. Replications of specifications in three recent accounting studies confirm the simulation findings. The findings suggest that when scale differences are of concern, accounting researchers should include a scale proxy as an independent variable and report inferences based on White standard errors. Résumé. Les auteurs examinent, tant sur le plan analytique qu'au moyen de simulations basées sur les données comptables, la distorsion des coefficients et l'hétéroscédasticité résultant des différences d'échelle dans les plans de recherche comptable basés sur les niveaux. Leurs constatations révèlent que l'inclusion d'un substitut d'échelle à titre de variable indépendante est plus efficace que la déflation pour atténuer la distorsion relative au coefficient, même si le substitut présente une corrélation de 95 pour cent avec le véritable facteur d'échelle. En fait, la déflation peut accentuer la distorsion relative au coefficient. Aussi, il arrive souvent que la déflation, sans réduire de façon appréciable l'hétéroscédasticité, puisse diminuer l'efficience de l'estimation. Les erreurs-types de White (1980) se rapprochent des erreurs véritables dans les régressions faisant appel à des variables non déflatées. La répétition des mêmes caractéristiques dans trois études comptables récentes confirme les résultats de la simulation. Les conclusions de l'étude donnent à penser que lorsque les différences d'échelle sont sujet de préoccupation, les chercheurs en comptabilité devraient faire intervenir un substitut d'échelle à titre de variable indépendante et formuler les inférences à partir des erreurs-types de White.  相似文献   

15.
Abstract: This paper evaluates the causes, nature and severity of divergencies among macroeconomic data on Nigeria, using the debt data series as the contextual focus. The findings indicate significant divergencies among the debt data series being published on Nigeria by various organizations. The findings also revealed that these divergencies and inconsistencies cannot be attributed to random factors, suggesting that there are basic differences in the data-generating and reporting procedures employed by each organization. These findings imply that debt data on Nigeria are not reliable, and that research findings based on them cannot be valid. More importantly, policy-oriented research may offer conflicting recommendations, thus jeopardizing the accuracy of policy decisions and projections. The paper suggest some remedial measures to overcome the data divergencies and inconsistencies. Résumé: Ce document analyse les causes, la nature et la profondeur des divergences entre les données macroéconomiques sur le Nigeria, en partant de la série de données relatives à la dette. Les conclusions font état d'importants écarts entre les séries de données publiées par diverses organisations sur la dette du Nigeria. Les résultats révèlent également que ces divergences et écarts ne peuvent être attribués à des facteurs aléatoires, ce qui donne à penser que des différences fondamentales existent dans les procédures de production et de communication des données utilisées par chaque organisation. Les conclusions impliquent que les données sur la dette du Nigeria ne sont pas fiables et que les recherches basées sur de telles données ne peuvent aboutir á des résultats valables. Plus important encore, la recherche tournée vers l'action peut conduire à des recommandations contradictoires, compromettant l'exactitude des décisions et des projections. Le document propose quelques mesures de redressement pour surmonter les divergences et les discordances entre les données.  相似文献   

16.
Abstract. This research empirically investigated the effect of nonnormality on financial stress prediction. The analysis included the application of probit, logit and multiple discriminant analysis to prediction models found in previous literature, and also involved separate samples for both bankrupt and problem-status companies. Finally, the statistical techniques were evaluated under extreme conditions of nonnormality. Two basic procedures were used to modify the ratio distributions to achieve normality. These included a square-root transformation procedure and an outlier deletion procedure. Results were compared using both a univariate and a multivariate technique to identify and remove outliers. The results indicate the general sensitivity of the multiple discriminant analysis technique to departures from normality and the sensitivity of the logit and probit techniques to extreme nonnormality. The data indicate that researchers interested in assessing classification accuracy might benefit by testing for distributional sensitivity using procedures outlined in this research. Resumé. Les auteurs ont procédé à une analyse empirique de l'incidence des écarts par rapport à la normalité sur la prévision des contraintes financières. L'analyse comporte l'application du probit, du logit et de l'analyse à discriminants multiples aux modèles prévisionnnels que l'on trouve dans des publications, et l'on a eu recours à des échantillons distincts tant pour les sociétés en situation de faillite que pour les sociétés en difficulté. Enfin, les techniques statistiques ont été évaluees dans des conditions extrêmes d'écart par rapport à la normalité. Deux méthodes fondamentales ont été utilisées pour modifier les distributions de ratios de façon à parvenir à la normalité. Ces méthodes comprennent un procédé de transformation de la racine carrée et un procédé d'élimination des éléments isolés. Les résultats obtenus ont été comparés à l'aide d'une technique univariée ainsi que d'une technique multivariée pour repérer et supprimer les éléments isolés. Les résultats indiquent la sensibilité générale de la technique d'analyse à discriminants multiples aux déviations par rapport à la normalité et la sensibilité des techniques logit et probit aux écarts extrêmes par rapport à la normalité. Ces données révèlent que les chercheurs qui s'intéressent à l'évaluation de l'axactitude de la classification pourraient tirer profit d'une vérification de la sensibilité de la distribution au moyen des méthodes décrites par les auteurs.  相似文献   

17.
Résumé. Les auteurs s'intéressent ici à la nature des représentations cognitives qu'utilisent les vérificateurs en situation de fraude potentielle dans les états financiers. Ils divisent le problème de détection de la fraude en deux parties: la détection de la mise en scène élaborée par la direction pour masquer la fraude et la détection de la fraude. Ils examinent les deux méthodes de détection des mises en scène proposées par Kahneman et Tversky (1986): 1) l'utilisation de représentations multiples aboutissant à différentes interprétations possibles des données contenues dans les états financiers; et 2) l'utilisation d'une méthode permettant de transposer les données contenues dans les états financiers sous forme de représentation normalisée. Vingt-quatre associés de vérification ont participé à l'étude. Chacun d'eux devait procéder à la contre-révision d'un dossier de vérification. Tous les vérificateurs examinaient quatre cas dans lesquels la direction avait présenté une image trompeuse de l'entreprise (au moyen d'une mise en scène) et produit des états financiers frauduleux. Les résultats obtenus par les auteurs confirment la thèse de Kahneman et Tversky selon laquelle les mises en scène peuvent être décelées grâce à la transposition du problème sous forme de représentation normalisée. Les vérificateurs qui ont eu recours à une représentation normalisée sont parvenus à percer à jour la mise en scène de la direction, à totaliser les éléments correctement et à déceler la fraude dans tous les cas. Ils ont, pour cela, appliqué des procédés conformes aux normes de vérification généralement reconnues (Institut Canadien des Comptables Agréés, 1988; American Institute of Certified Public Accountants, 1984) pour totaliser les éléments. Les vérificateurs qui ont eu recours à des représentations multiples ont aussi détecté la mise en scène élaborée par la direction dans les quatre cas. Ils n'ont cependant pas appliqué les procédés de totalisation recommandés dans les normes de vérification et ne sont parvenus à détecter la fraude dans aucun des quatre cas.  相似文献   

18.
Abstract. This study examines the effect of data structuring techniques on audit judgments by comparing responses based on information cues arranged according to a hierarchically structured template with the response to identical cues arranged in a simple list. Forty auditors, at five different levels of expertise, reviewed the audit strategy of a hypothetical senior and provided evaluations of the original plan, a revised set of plans, and reports of their difficulty in making the required judgments. The experimental task involved 16 cases, in which types of transaction processing systems (i.e., manual and computerized), and internal control cues, were manipulated in addition to the format of presenting information. Structure of information presentation appears to play a significant role in the evaluations and plans of the auditors, but is considered to contribute substantially to the difficulty of making judgments. In most cases, structure appears to contribute to uniformity of responses; but, in some instances it actually seems to exaggerate differences in auditors' judgments. Résumé. Cette étude examine l'effet des techniques de structure des données sur les jugements en vérification, en comparant les réponses basées sur une information organisée de façon hiérarchique avec les réponses basées sur la même information organisée selon la structure d'une liste simple. Quarante vérificateurs de cinq niveaux de compétence différents, ont révisé la stratégie de vérification d'une chef d'équipe hypothétique et ont présenté des évaluations du plan original, d'un ensemble de plans révisés et ont fait rapport de leur difficulté en rendant les jugements requis. L'expérience comportait 16 cas dans lesquels des types de systèmes de traitement (i.e. manuels et informatisés) et des éléments de contrôle devaient être pris en considération en plus du format de présentation de l'information. La structure de présentation de l'information semble jouer un rôle significatif dans les évaluations et les plans des vérificateurs et contribue de façon importante à la difficulté de rendre des jugements. Dans la plupart des cas, la structure de présentation de l'information semble contribuer à l'uniformité des réponses; dans certains cas cependant, elle semble exagérer les différences dans les jugements des vérificateurs.  相似文献   

19.
Abstract. Available evidence suggests that state and local government pension plans may be substantially underfunded. The capitalization of these unfunded obligations in borrowing costs is an important public policy issue, since noncapitalization may lead to the misallocation of credit and stimulate the provision of an inefficiently high level of current services. Prior research has relied largely on pension ratios as surrogates for unfunded liabilities and also appears to have made no attempt to distinguish between projected benefits and accumulated benefits. The Governmental Accounting Standards Board requires the disclosure of projected benefits and asserts that accumulated benefits severely understate the obligations of a governmental unit. The empirical evidence reported in this study suggests that, for state governments, unfunded projected liabilities provide no incremental information to the bond market over and above that already provided by unfunded accumulated liabilities. Résumé. Les données existantes laissent supposer que la capitalisation des régimes publics de pensions à l'échelle de l'État et à l'échelle locale pourrait être largement insuffisante. Le financement des obligations non capitalisées à même les coûts d'emprunt est une question de politique importante, puisque la non-capitalisation risque d'entraîner une mauvaise répartition des crédits et la fourniture d'un niveau de services actuel trop élevé. Dans les travaux de recherche précédents, l'on s'est appuyé en grande partie sur les ratios de retraite comme substituts dans le cas des dettes non capitalisées et l'on semble également n'avoir d'aucune façon tenté d'établir une distinction entre les prestations projetées et les prestations constituées. Le Governmental Accounting Standards Board exige la présentation des prestations prévues et affirme que le chiffre des prestations constituées sous-évalue de beaucoup les obligations gouvernementales. Les résultats concrets de la présente étude donnent à penser que pour les États, la communication des dettes prévues non capitalisées ne fournit au marché obligataire aucune information supplémentaire à la communication des dettes constituées non capitalisées.  相似文献   

20.
Abstract. A newly issued AICPA auditing standard focuses attention on analytical procedures. Regression analysis has been shown to be a useful audit tool and is used to a limited extent in practice. This study compares a univariate regression-based decision rule with that of exponential smoothing. The effect on the regression-based decision method when additional input information is included to develop a multivariate model is also evaluated. Comparisons are accomplished by seeding various error patterns into the audit period data and evaluating the results of the various models. The results indicate that the regression-based decision model was at least as efficient and effective as the exponential smoothing-based model. Additional input information into the univariate regression model to develop a multivariate model did improve auditor decisions for some types of accounts but did not significantly affect the number of incorrect rejections and/or acceptances for other types. The multivariate model did improve the achieved precision of the univariate model but still did not reach desired levels. Résumé. Dans un Auditing Standards Procedures qu'il publiait récemment, l'AICPA se penche sur les procédés analytiques. L'analyse de régression s'est révélée un instrument de vérification utile et son emploi dans la pratique est modéré, Les auteurs comparent une règle de décision fondée sur une régression comportant une seule variable aléatoire avec celle du lissage exponentiel. L'incidence d'un supplément d'information à l'entrée sur la méthode de décision fondée sur la régression permet de mettre au point un modèle à plusieurs variables aléatoires, que les auteurs évaluent également. Les comparaisons sont réalisées en introduisant divers scénarios d'erreur dans les données de la période soumise à la vérification. Les résultats de l'étude indiquent que le modèle de décision fondé sur la régression est au moins aussi efficient et efficace que le modèle fondé sur le lissage exponentiel. L'introduction d'un supplément d'information dans le modèle de régression à une seule variable aléatoire de manière à créer un modèle à plusieurs variables aléatoires a de fait amélioré les décisions du vérificateur pour certains types de comptes, mais n'a pas eu d'incidence significative sur le nombre d'erreurs de première et de seconde espèces pour d'autres types de comptes. La performance du modèle à plusieurs variables aléatoires est de fait supérieure à celle du modèle à une seule variable aléatoire, sans toutefois permettre d'obtenir les niveaux de précision souhaités.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号