SciELO - Scientific Electronic Library Online

 
vol.14Déficit en la Atención e Interacción con Funciones Cognitivas en UniversitariosModelo de factores proximales para la ideación suicida de estudiantes universitarios mexicanos índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

  • No hay artículos similaresSimilares en SciELO

Compartir


Psicumex

versión On-line ISSN 2007-5936

Psicumex vol.14  Hermosillo ene./dic. 2024  Epub 09-Dic-2024

https://doi.org/10.36793/psicumex.v14i1.648 

Artículos

Exposición Sencilla y Ejemplificada de la Ley de Newcomb-Benford para Psicólogos

Simple and Exemplified Exposition of the Newcomb-Benford Law for Psychologists

José Moral de la Rubia1  * 
http://orcid.org/0000-0003-1856-1458

1Universidad Autónoma de Nuevo León


Resumen

Este artículo metodológico tiene como objetivo exponer la Ley de Newcomb-Benford de una forma clara, acompañada de un ejemplo, para facilitar su comprensión entre diversas áreas de investigación psicológica ajenas a su uso en otras disciplinas, incluida la ciencia cognitiva. Se aplica sobre todo a la detección del fraude en bases de datos y escrutinio electoral. Este artículo inicia con una reseña histórica, presenta las distribuciones del primer al cuarto dígito significativo y la de dos dígitos. Se revisan las explicaciones estadístico-matemáticas de la ley. Se presentan de forma aplicada seis pruebas de bondad de ajuste y el cálculo de intervalos de confianza simultáneos para comprobar el cumplimiento de la ley. Se usan datos simulados que siguen dos distribuciones: normal y lognormal. La primera, común en psicología, no se ajusta a la ley, mientras que la segunda posibilita transformar la distribución normal para cumplirla. Finalmente, se extraen conclusiones y se plantean sugerencias para detectar manipulación de datos normalmente distribuidos.

Palabras clave: Ley Newcomb-Benford; ley de los primeros dígitos; distribución discreta; bondad de ajuste; intervalos de confianza simultáneos

Abstract

The purpose of this methodological article is to clearly present the Newcomb-Benford law, accompanied by an example, to enhance understanding among diverse areas of research in psychology unfamiliar with its use in other disciplines, including cognitive science. This law is primarily applied for detecting fraud in databases and tallying votes in popular elections. The article commences with a historical overview, presenting distributions from the first to the fourth significant digit, as well as the two-digit distribution. Statistical-mathematical explanations of the law are reviewed, followed by the presentation of six goodness-of-fit tests and the calculation of simultaneous confidence intervals to assess compliance with the law. Simulated data following two distributions, namely normal and lognormal, are employed. The former, common in psychology, doesn't conform to the law, while the latter facilitates transforming the normal distribution to adhere to it. Finally, conclusions are drawn, and suggestions are made to detect manipulation of normally distributed data.

Key words: Newcomb-Benford law; first digit law; discrete distribution; goodness of fit; simultaneous confidence intervals

Introducción

La ley o distribución de probabilidad de Newcomb (1881) y Benford (1938) ha sido de gran interés para los matemáticos que han profundizado en el estudio de sus causas (Berger y Hill, 2020), y se ha aplicado sobre todo a la detección del fraude en bases de datos en contaduría, econometría, demografía y resultados electorales (Kaiser, 2019), así como al estudio de distribuciones de probabilidad (Fang, 2022; Formann, 2010). No obstante, aun cuando podría ser de utilidad es bastante desconocida en la mayoría de los campos de psicología, como en psicología social y de la salud, salvo los campos ligados a la ciencia cognitiva (Burns, 2020). De ahí que el objetivo del artículo es acercar esta ley de probabilidad a investigadores en psicología y campos afines para su estudio y aplicación por medio de una presentación sencilla y ejemplificada aplicada al área.

La ley de los números anómalos o el hecho de que la distribución del primer dígito significativo o distinto de cero de grandes números de mediciones en muestras aleatorias no corresponda a una distribución uniforme, sino a una distribución monótona descendente, donde la probabilidad de que aparezca el uno es seis y media veces mayor que la del nueve fue observada y matematizada por primera vez por el astrónomo americano de origen canadiense Simon Newcomb (1835-1909) en 1881 (ver Figura 1). Newcomb descubrió este fenómeno al notar que las páginas de los libros de tablas de logaritmos que contenían los logaritmos que empezaban con los primeros dígitos (1, 2, …) estaban más desgastadas por el uso que aquellas que contenían logaritmos con los últimos dígitos (…, 8 y 9), siguiendo este desgaste una progresión no lineal descendente. Además, incluyó la ley para el dígito que aparece en segundo lugar. Posteriormente, el físico americano Frank Albert Benford (1883−1948) en 1938 retomó esta regularidad y comprobó que aparecía en colecciones de datos numéricos de fuentes de muy diversa naturaleza. Uno de los usos más importantes de la ley de Newcomb-Benford es la detección de fraudes en informes financieros (Jianu y Jianu, 2021), estadísticas de población y vivienda (Kilani y Georgiou, 2021), bases de datos macroeconómicos (Kaiser, 2019) y conteo de votos en elecciones populares (Golbeck, 2019; Lacasa y Fernández-Gracia, 2019).

Figura 1 Diagramade la función de masa de probabilidad o probabilidad puntual del primer dígito significativo: f D1 (d), donde D1 = {1, 2, 3, 4, 5, 6, 7, 8, 9} 

En el campo de la psicología cognitiva, Chi y Burns (2022) estudiaron la ley de Newcomb-Benford en tres tareas: de reconocimiento, generación de números y estimación. Conforme al conocimiento que se tiene sobre la ley de los primeros dígitos de Newcomb y Benford, la tarea de generación de números se ajustó bien a dicha ley, replicándose los resultados obtenidos por Burns y Krygier (2015). La tarea de estimación se aproximó a la ley, pero la tarea de reconocimiento se desvió. El comportamiento de esta última tarea correspondió con la distribución uniforme, que es la distribución a la que converge la ley de Newcomb y Benford al incrementar el número de dígitos

El fenómeno observado es explicado como un sesgo cognitivo que puede ser útil para detectar fraude al generar datos (Burns, 2020; Gauvrit et al., 2017). Los ingenieros Striga y Podobnik (2018) constataron que la distribución de los primeros dígitos significativos para el número de amigos y ciertos comportamientos de los usuarios de Facebook, como publicaciones (posts), “me gusta” (likes) y comentarios, siguen la Ley de Newcomb-Benford. En neurociencia, se ha aplicado la ley de Newcomb-Benford como modelo distribucional para explicar la actividad eléctrica cerebral (Kreuzer et al., 2014) y la transmisión neuromuscular (da Silva et al., 2020).

Enunciación de la ley de Newcomb-Benford

Cuando se toma el primer dígito significativo o distinto de cero de mediciones numéricas con un rango amplio, se cumple la ley de Newcomb-Benford si la probabilidad de aparición del uno es 0.301, la del dos es 0.176, del tres es 0.125, del cuatro es 0.097, del cinco es 0.079, del seis es 0.067, del siete es 0.058, del ocho es 0.051 y del nueve es 0.046 - Benford, 1938; Newcomb, 1881- (ver Figura 1). Bajo esta ley, las probabilidades de la sucesión lineal de enteros positivos del uno al nueve que representa el primer dígito no nulo vienen dadas en una escala logarítmica que se puede calcular mediante la siguiente función de masa de probabilidad:

XD1 ~ NBm=1

m = orden del dígito de izquierda a derecha del dato numérico x de la variable cuantitativa X. Si m = 1, se trata del primer dígito sin incluir el cero. En caso de que el primer dígito del número x sea 0, se toma el segundo, tercero o siguiente no nulo para especificar el primer dígito significativo, por ejemplo, x = 0.023 → d = 2.

D1=1, 2, 3, 4, 5, 6, 7, 8, 9Z+;#D1=9

PD1=d=fD1d=log10d+1-log10d=log10d+1d=log101+1d

La función de distribución acumulativa corresponde a la siguiente fórmula:

PD1d=FD1d=i=1dlog101+1i

Las fórmulas de las funciones de masa de probabilidad f Dm (d) y distribución acumulativa F Dm (d) para el dígito en el orden m son las siguientes:

XDm ~ NBm

m = orden del dígito=2, 3, 4,Z+

Dm=0, 1, 2, 3, 4, 5, 6, 7, 8, 9N;#Dm=10

PDm=d=fDmd=k=10m-210m-1-1log101+110k+d

PDmd=FDmd=i=0dk=10m-210m-1-1log101+110k+i

Funciones de masa de probabilidad y distribución acumulativa y medidas descriptivasdel primer dígito significativo

En la Tabla 1, se muestran las probabilidades puntuales o valores de la función de masa de probabilidad f D1 (d) y probabilidades acumuladas o valores de la función de distribución acumulativa F D1 (d) de una variable aleatoria discreta D1 (primer dígito significativo) que sigue una distribución de Newcomb-Benford, NB(m = 1); además, aparecen los cálculos para obtener sus medidas descriptivas. Se computan cinco medidas de tendencia central: media aritmética (μ), media geométrica (μg), media armónica (μh), mediana (Mdn) y moda (Mo). Se calculan nueve medidas de variación. Por una parte, se proporcionan cuatro medidas aritméticas: varianza (σ2), desviación estándar (σ), coeficiente de variación (CV), y desviación media absoluta (DMA). Por otra parte, se suministran tres medidas geométricas: varianza (σg 2), desviación estándar (σg) y coeficiente de variación (CV). Adicionalmente, se complementa con la desviación mediana absoluta (DMEA) y entropía estandarizada o eficiencia (η). Finalmente, se valora la forma mediante dos medidas basadas en momentos centrales estandarizados: coeficiente de asimetría (√β1) y exceso de curtosis (β2−3), las cuales se denotan con la notación original de Pearson (1895), así como mediante las medidas de asimetría y curtosis adaptativas y robusta de Hogg (1974), que se denotan por AAR y CAR, respectivamente.

Tabla 1 Probabilidades del primer dígito significativo y cálculos para obtener sus descriptivos 

d f F d×f ln(d)f (1/d)f (d−μD) 2f |d−μD1|f fln×(f) (lnx−μlnD1)2f zd 3×f zd 4×f
1 0.301 0.301 0.301 0 0.301 1.793 0.735 0.735 0.278 -0.293 0.291
2 0.176 0.477 0.352 0.122 0.088 0.365 0.254 -0.306 0.013 -0.035 0.021
3 0.125 0.602 0.375 0.137 0.042 0.024 0.055 -0.260 0.002 -0.001 0.000
4 0.097 0.699 0.388 0.134 0.024 0.030 0.054 -0.226 0.018 0.001 0.000
5 0.079 0.778 0.396 0.127 0.016 0.193 0.124 -0.201 0.033 0.020 0.013
6 0.067 0.845 0.402 0.120 0.011 0.439 0.171 0.181 0.046 0.075 0.078
7 0.058 0.903 0.406 0.113 0.008 0.735 0.206 -0.165 0.056 0.176 0.254
8 0.051 0.954 0.409 0.106 0.006 1.064 0.233 -0.152 0.064 0.325 0.603
9 0.046 1 0.412 0.101 0.005 1.414 0.254 -0.141 0.070 0.528 1.192
1 3.440 0.961 0.502 6.057 2.086 -1.993 0.580 0.796 2.452

Nota. D1 = primer dígito significativo de X; d = valor discreto de D1; f = f D1 (d) = función de masa de probabilidad de D1 ~ NB(m = 1); F = F D1 (d) = función de distribución acumulativa de D1 ~ NB(m = 1); d×f = producto entre d y f D1 (d); ln(d)f = producto entre el logaritmo del dígito d y f D1 (d); (1/d)f = producto entre el inverso del dígito d y f D1 (d); (d−μD1)2 f = diferencia entre el dígito d y su promedio elevada al cuadrado y multiplicada por f D1 (d); |d−μD1|f = diferencia absoluta entre el dígito d y su promedio multiplicada por f D1 (d); f×ln(f) = producto entre f D1 (d) y el logaritmo neperiano de f D1 (d); (lnd−μlnD)2 f = diferencia del logaritmo neperiano de f D1 (d) y el promedio de estos logaritmos elevada al cuadrado y multiplicada por f D1 (d), z d = (d− μD1)/σ D1 = puntuación estandarizada de d; z d 3×f = producto entre el cubo de la puntuación estandarizada de d y f D1 (d); z d 4×f = producto entre la puntuación estandarizada de d elevada a la cuarta potencia y f D1 (d), ∑ = suma por columna. Fuente: elaboración propia.

De las dos fórmulas propuestas por Hogg (1974) para medir la curtosis, se usa la recomendada por Bono et al. (2020) por su mayor exactitud. Siguiendo a Reed y Stark (1996), valores de AAR menores que 0.7 evidencian asimetría negativa o hacia la cola izquierda, entre 0.7 y 1.4 simetría y mayores que 1.4 asimetría positiva o hacia la cola derecha. Hogg et al. (1975) y Reed y Stark (1996) sugirieron que valores de CAR menores que 1.81 revelan colas ligeras (platicurtosis), entre 1.81 y 1.87 medias (mesocurtosis) y mayores que 1.87 pesadas (leptocurtosis).

Cálculo de la probabilidad del valor 1 para el primer dígito significativo (Tabla 1):

PD1=1=fD1d=1=log101+1/1=log102=0.301

Medidas de tendencia central: la media aritmética es ligeramente mayor que la mediana y claramente mayor que la moda, lo que evidencia asimetría positiva.

μD1=d=19dfD1d=3.440

μgD1=ed=19lndfD1d=e0.961=2.614

μhD1=1d=191dfD1d=10.502=1.993

MdnD1=3;PD13=0.602>0.5 y PD13=0.523>0.5

MoD1=1;MaxfD1d=0.301=fD1d=3

Medidas de variación: la variabilidad es media con un coeficiente de variación menor que 0.8 y una desviación media absoluta y una desviación mediana absoluta que corresponden a un cuarto del rango: R(D1)/4 = [Max(D1) - Min(D1)]/4 = (9 - 1)/4 = 2. La entropía estandarizada es alta al alcanzar un valor próximo al máximo de 1.

σ2D1=d=19d-μD12fD1d=6.057

σD1=d=19d-μD12fD1d=6.057=2.461

CVD1=σD1/μD1=2.461/3.440=0.715

σg2D1=ed=19lnd-lnμgD12fD1d=ed=19lnd-μlnD12fD1d=e0.580=1.786

σgD1=ed=19lnd-lnμgD12fD1d=ed=19lnd-μlnD12fD1d=e0.580=2.142

CVgD1=σgD1-1=2.461-1=1.142

DMAD1=d=19d-μD1fD1d=2.086

DMEAD1=Mdnd-MdnD1d=19=2

ηD1=ΗD1MaxΗD1=ΗD1ln#D1=-d=19dlnfD1dln9=1.9932.197=0.907

Medidas de la forma: la distribución muestra asimetría positiva o hacia la cola derecha y ligera platicurtosis o colas acortadas con base en √β1 y β2. Los índices adaptativos y robustos de Hogg (1974) también revelan asimetría hacia la cola derecha (AAR = 3.298 > 1.4) y colas acortadas (CAR = 1.625 < 1.81).

β1D1=d=19d-μD1σD13fD1d=0.796

AARD1=MS5%-MT25%MT25%-MI5%=8.915-2.8422.842-1=3.298

Media aritmética del 5 % de los datos inferiores: MI 5% (D1) = 1

Centrimedia o media truncada al 25 % a cada lado:

MT 25% (D1) = [1×(0.301−0.25)+2×0.176+3×0.125+4×0.097+5×(0.75−0.699)]/0.5 = 2.842

Media aritmética del 5 % de los datos superiores:

MS 5% (D1) = [9×0.046+8×(0.05−0.046)]/0.05 = 8.915

β2D1-3=d=19d-μD1σD14fD1d=2.452-3=-0.548

CARD1=MS20%-MI20%MS50%-MI50%=7.488-15.437-1.444=1.625

Media aritmética del 20 % de los datos inferiores: MI 20% (D1) = 1

Media aritmética del 50 % de los datos inferiores:

MI 50% (D1) = [1×0.301+2×0.176+3×(0.5−0.477)]/0.5 = 1.444

Media aritmética del 50 % de los datos superiores:

MS 50% (D1) = [9×0.046+8×0.051+7×0.058+6×0.067+5×0.079+4×0.097+3×(0.5−.398)]/0.5 = 5.437; P(d ≥ 4) = 0.046 + 0.051 + 0.058 + 0.067 + 0.079 + 0.097 = 0.398

Media aritmética del 20 % de los datos superiores:

MS 20% (D1) = [9×0.046+8×0.051+7×0.058+6× (0.2−0.046−0.051−0.058)]/0.2 = 7.488

Funciones de masa de probabilidad y distribución acumulativa, y medidas descriptivas para los dígitos significativos que siguen al primero

En la Tabla 2, se presenta el cálculo de las probabilidades puntuales de cada uno de los valores discretos del soporte de la variable D2, que corresponde a la suma por columna.

XD2 ~ Benfordm=2

D2=0, 1, 2, 3, 4, 5, 6, 7, 8, 9N;#D2=10

PD2=0=fD2d=0=k=10m-210m-1-1log101+110k+d=k=19log101+110k+0=0.120

Tabla 2 Cálculo de las probabilidades puntuales del segundo dígito significativo 

k Valores de D2
0 1 2 3 4 5 6 7 8 9
1 0.041 0.038 0.035 0.032 0.030 0.028 0.026 0,025 0.023 0.022
2 0.021 0.020 0.019 0.018 0.018 0.017 0,016 0.016 0.015 0.015
3 0.014 0.014 0.013 0.013 0.013 0.012 0.012 0.012 0.011 0.011
4 0.011 0.010 0.010 0.010 0.010 0.010 0.009 0.009 0.009 0.009
5 0.009 0.008 0.008 0.008 0.008 0.008 0.008 0.008 0.007 0.007
6 0.007 0.007 0.007 0.007 0.007 0.007 0.007 0.006 0.006 0.006
7 0.006 0.006 0.006 0.006 0.006 0.006 0.006 0.006 0.006 0.005
8 0.005 0.005 0.005 0.005 0.005 0.005 0.005 0.005 0.005 0.005
9 0.005 0.005 0.005 0.005 0.005 0.005 0.005 0.004 0.004 0.004
0.120 0.114 0.109 0.104 0.100 0.097 0.093 0.090 0.088 0.085

Nota. D2 = segundo dígito significativo o no nulo, k = contador del sumatorio, ∑ = suma por columna que proporciona la probabilidad puntual de cada valor de D2 ~ NB(m = 2). Fuente: elaboración propia.

En la Tabla 3, se muestran las probabilidades puntuales o valores de la función de masa de probabilidad y probabilidades acumuladas o valores de la función de distribución acumulativa del segundo al cuarto dígito.

Tabla 3 Probabilidades del segundo, tercer y cuarto dígito significativo 

D Valores de D2 Valores de D3 Valores de D4
fD2(d) FD2(d) fD3(d) FD3(d) fD4(d) FD4(d)
0 0.1197 0.1197 0.1018 0.1018 0.1002 0.1002
1 0.1139 0.2336 0.1014 0.2032 0.1001 0.2003
2 0.1088 0.3424 0.1010 0.3041 0.1001 0.3004
3 0.1043 0.4467 0.1006 0.4047 0.1001 0.4005
4 0.1003 0.5470 0.1002 0.5049 0.1000 0.5005
5 0.0967 0.6437 0.0998 0.6047 0.1000 0.6005
6 0.0934 0.7371 0.0994 0.7041 0.0999 0.7004
7 0.0904 0.8274 0.0990 0.8031 0.0999 0.8003
8 0.0876 0.9150 0.0986 0.9017 0.0999 0.9002
9 0.0850 1 0.0983 1 0.0998 1

Nota. Dm = dígito significativo en orden m de X, d = valor de Dm, f Dm (d) = función de masa de probabilidad de Dm ~ NB(m), F Dm (d) = función de distribución acumulativa de Dm ~ NB(m) y m = orden del dígito de izquierda a derecha. Fuente: elaboración propia.

En la Tabla 4, se resumen los descriptivos previamente calculados con la distribución del primer dígito y se presentan los correspondientes de las distribuciones del segundo, tercer y cuarto dígito. Debido a que el cero está incluido en el soporte de estas tres últimas distribuciones, la media, varianza, desviación estándar y coeficiente de variación geométricos, y la media armónica no se pueden calcular. Se añaden otras medidas: basadas en la distancia estandarizada de la media a la moda o mediana (Pearson, 1894: A P1 = [μ−Mo]/σ; y Pearson, 1895: A P2 = [μ−Mdn]/σ) y basadas en cuantiles (asimetría intercuartílica A IC , asimetría percentílica A P ), así como la curtosis percentílica centrada en 0 (CPC = CP - 0.263), en la que valores positivos indican colas ligeras y los negativos colas pesadas (Kelley, 1947). En esta misma tabla, se incluyen los descriptivos de la distribución uniforme discreta U{0, 9}. Se puede observar que las distribuciones de los órdenes sucesivos del primero al cuarto se van haciendo más simétricas y platicúrticas y los descriptivos de la distribución de Newcomb-Benford para el cuarto dígito prácticamente coinciden con los de la distribución uniforme, así la distribución del dígito significativo en orden m converge a una distribución uniforme, en la que la probabilidad puntual de cada uno de los diez dígitos es de un décimo. Salvo las percentílicas, estas medidas no reflejan la tendencia mencionada, por lo que son inadecuadas para la distribución de Newcomb-Benford.

Tabla 4 Medidas descriptivas de las distribuciones del primer al cuarto dígito significativo y de la distribución uniforme discreta U{0, 10} 

Medida descriptiva Distribución de Newcomb-Benford: orden m del dígito Distribución uniforme
1° 2° 3° 4°
Medidas de tendencia central
μ(Dm) 3.440 4.187 4.468 4.497 4.5
Mdn(Dm) 3 4 4 4 4.5
Mo(Dm) 1 0 0 0 -
Medidas de variación
σ 2 (Dm) 6.057 8.254 8.250 8.250 8.25
σ(Dm) 2.461 2.873 2.872 2.872 2.872
CV(Dm) 0.715 0.686 0.643 0.639 0.638
DMA(Dm) 2.086 2.490 2.500 2.500 2.5
DMEA(Dm) 2 2 2 2 2.5
Η(Dm) 1.993 2.297 2.303 2.303 2.303
η(Dm) 0.907 0.997 0.99997 0.9999997 1
Medidas de asimetría
√βm(Dm) 0.796 0.133 0.014 0.001 0
AP1(Dm) 0.991 1.457 1.556 1.566 -
AP2(Dm) 0.179 0.065 0.163 0.173 0
AIC(Dm) 0 0.2 0.2 0.2 0
AP(Dm) 0.333 0 0 0 0
AAR(Dm) 3.298 1.213 1.020 1.002 1
Medidas de curtosis
β2(Dm)−3 -0.548 -1.208 -1.224 -1.224 -1.224
CPC(Dm) 0.070 0.049 0.049 0.049 0.049
CAR(Dm) 1.625 1.595 1.5999 1.599999 1.6

Nota. Medidas de tendencia central: μ(Dm) = esperanza matemática o media aritmética, Mdn(Dm) = mediana y Mo(Dm) = moda. Medidas de variación: σ2(Dm) = varianza, σ(Dm) = desviación estándar, CV(Dm) = coeficiente de variación, DMA(Dm) = desviación media absoluta, DMEA(Dm) = desviación mediana absoluta, Η(Dm) = entropía y η(Dm) = Η(Dm)/ln(#Dm) = entropía estandarizada o eficiencia. Medidas de la forma: √β1(Dm) = coeficiente de asimetría basado en el tercer momento central estandarizado, A P1 (Dm) = primer coeficiente de asimetría de Pearson (1894) = [μ(Dm)−Mdn(Dm)]/σ(Dm), A P2 (Dm) = segundo coeficiente de asimetría de Pearson (1895) = [μ(Dm)−Mo(Dm)]/σ(Dm), A IC (Dm) = coeficiente de asimetría intercuartílico = [P 25 (Dm)+P 75 (Dm)−2P 50 (Dm)]/[P 75 (Dm)−P 25 (Dm)], A P (Dm) = coeficiente de asimetría percentílico = [P 10 (Dm)+P 90 (Dm)−2P 50 (Dm)]/[P 90 (Dm)−P 10 (Dm)], AAR(Dm) = medida de asimetría adaptativa y robusta de Hogg (MS 5% MT 25% )/(MT 25% MI 5% ) y β2(Dm)−3 = exceso de curtosis basado en el cuarto momento central estandarizado, CPC = coeficiente de curtosis percentílico centrado en 0 = {[P 75 (Dm)−P 25 (Dm)]/[2(P 90 (Dm)−P 10 (Dm))]} - 0.263 y CAR(Dm) = medida de curtosis adaptativa y robusta de Hogg = (MS 20% MI 20% )/(MS 50% MI 50% ). Fuente: elaboración propia.

La función de Newcomb-Benford para dos o más dígitos significativos

Las fórmulas de la distribución de Newcomb-Benford del primer dígito permiten el cálculo de las probabilidades para dos o más dígitos significativos. Como en la distribución del primer dígito significativo, se puede calcular la media, varianza, desviación estándar y coeficiente de variación geométricos, así como la media armónica, ya que no aparece el cero. En el caso de dos dígitos, el soporte de la distribución empieza en diez y se termina en 99. En la medida que se incrementa el número de dígitos, converge a una distribución uniforme discreta.

X2D ~ Benfordd=2

d=10, 12, , 99Z+;#2D=90

f2Dd=10=log101+1d=log101+110=0.041

F2Dd12=i=1012log101+1i=log101+110+log101+111=0.079

Medidas de tendencia central: La media aritmética es mayor que la media y mucho mayor que la moda, que es el primer valor. La media geométrica y la mediana toman valores muy próximos.

E2D=μ2D=d=1099df2Dd=38.590

μg2D=ei=1099lndf2Dd=e3.434=31.011

μh2D=1d=10991/df2Dd=10.040=24.893

Mdn2D=31;P2D31=0.505>0.5 y P2D31=0.509>0.5

Mo2D=10;Maxf2Dd=0.041=f2Dd=10

Medidas de variación: Las medidas de variación geométricas presentan valores muy bajos en comparación con las aritméticas y la desviación mediana absoluta.

σ22D=i=1099d-μ2D2f2Dd=621.832

σ2D=i=1099d-μ2D2f2Dd=621.832=24.937

CV2D=σ2D/μ2D=24.937/38.590=0.646

σg22D=ei=1099lnd-lnμg2D2f2Dd=ei=1099lnd-μln2D2f2Dd=e0.458=1.580

σg2D=ei=1099lnd-lnμg2D2f2Dd=ei=1099lnd-μln2D2f2Dd=e0.458=1.967

CVg2D=σg2D-1=1.967-1=0.967

DMA2D=i=1099d-μ2Df2Dd=21.015

DMEA2D=Mdnd-Mdn2Dd=1099=16

η2D=Η2DMaxΗ2D=Η2Dln#2D=-d=09dlnfD2dln90=4.2884.4998=0.953

Medidas de la forma: se observa asimetría positiva y platicurtosis por ambos índices.

β12D=i=1099d-μ2Dσ2D3f2Dd=0.772>0

AAR2D=MS5%-MT25%MT25%-MI5%=86.780-33.46633.466-2.308=1.711>1.4

β22D-3=i=1099d-μ2Dσ2D4f2Dd=2.453-3=-0.547<0

CAR2D=MS20%-MI20%MS50%-MI50%=79.636-12.21658.890-18.289=1.661<1.81

Explicación de la ley de Newcomb-Benford

Se podría argumentar que la ley de Newcomb-Benford responde a un artefacto relacionado con la transformación logarítmica con base decimal de los dígitos. En contra de esta crítica, la distribución aparece con cualquier tipo de base logarítmica con tal de que la base sea mayor o igual que dos; es invariante a la unidad de medida de la variable cuantitativa y es específica a distribuciones con ciertas características (Berger y Hill, 2020).

Requiere de muestras aleatorias grandes de mediciones cuantitativas (de 100 o más y de preferencia 500 o más datos) y el hecho de que sean heterogéneas en cuanto a fuentes de procedencia facilita el cumplimiento (Benford, 1938). Los números deben abarcar un rango amplio y facilita que tengan varianza grande (Szabo et al., 2023). Muestras pequeñas (sobre todo menores de 30, incluso menores de 100 datos) con varianza reducida y de una única fuente, especialmente con restricciones y acotamientos impuestos, dificulta que se dé la ley de los primeros dígitos de Newcomb-Benford (1938).

Así, los ordenamientos secuenciales y mediciones con restricciones que limitan el rango e imponen valores mínimos y máximos no cumplen la ley (Cerqueti y Maggi, 2021). Los índices multiplicativos suelen seguir la ley (Berger y Hill, 2020). Si el soporte de la distribución son los números reales positivos, la media es mayor que la mediana, de preferencia al menos el doble, hay una única moda y la distribución muestra asimetría positiva, como la exponencial, es más fácil que se cumpla la ley (Lesperance et al., 2016). El que la distribución esté truncada y sea simétrica lo dificulta (Fang, 2022). También la mixtura de distribuciones facilita el cumplimiento de la ley o al menos que se dé una convergencia distribucional en la medida que se agregan más distribuciones (D’Alessandro, 2020).

El primer dígito significativo de distribuciones simétricas con soporte en el intervalo (−∞, ∞), como la normal, no sigue la distribución de Newcomb-Benford, pero sí su transformación logarítmica (Fang, 2022). Asimismo, si dichas variables simétricas se estandarizan y se elevan a la potencia de diez, también se cumple la ley (Scott y Fasli, 2001). La distribución uniforme incumple la ley, pero no el cociente entre dos distribuciones uniformes independientes (Volčič, 2020). Las distribuciones platicúrticas con parámetros de umbral, como la semicircular, la incumplen, pero su mixtura la puede cumplir (D’Alessandro, 2020).

Si una muestra al ser transformada a escala logarítmica presenta una amplia dispersión y se observa que los intervalos de números con el mismo primer dígito significativo tienen un ancho homogéneo y proporcional a su probabilidad en la distribución de Newcomb-Benford, entonces se cumple bien la ley (Coracioni, 2020). Por el contrario, se incumple si la dispersión en la escala logarítmica es pequeña y la altura de los intervalos de los números con el mismo primer dígito significativo, pero no su ancho, es proporcional a la probabilidad de la ley (Fewster, 2009).

De estas regularidades se colige que la ley de Newcomb-Benford responde al teorema multiplicativo del límite central, lo que la relaciona con la distribución lognormal (Formann, 2010). Cuando un fenómeno medido con una variable cuantitativa está determinado por diversas causas con efecto multiplicativo, a medida que se acumula más este efecto de dispersión, mejor se ajusta a la ley de Newcomb-Benford (Cerqueti et al., 2022; Scott y Fasli, 2001).

Contraste del ajuste de muestras de datos continuos a la ley de Newcomb-Benford

Para comprobar si una colección de datos o una muestra aleatoria de una variable cuantitativa X cumple la ley de Newcomb-Benford, se pueden aplicar pruebas de bondad de ajuste, como las pruebas chi al cuadrado de Pearson (1900) y G o de la razón de verosimilitud (Fisher, 1929; Woolf, 1957), como sugieren Eichhorn (2022). Aparte de estas dos pruebas de bondad de ajuste, está la prueba D de Kolmogorov (1933) y Smirnov (1948) con la transformación de Stephens (1986) o con los puntos críticos de Campanelli (2024). Esta tercera prueba se fundamenta en la distancia máxima entre la función de distribución acumulativa empírica y la teórica. También, están las pruebas W2 de Cramer y von Mises, A2 de Anderson y Darling, y U2 de Watson en su variante para distribuciones discretas (Cerasa, 2022; Lesperance et al., 2016; Lockhart et al., 2007). Estas últimas tres pruebas se basan en el cuadrado de la distancia ponderada entre la función de distribución acumulativa empírica y la teórica.

Para ser más específicos cuando se determina la desviación entre los datos y el modelo, se pueden calcular intervalos de confianza simultáneos para las probabilidades puntuales de los nueve valores de la distribución empírica del primer dígito significativo. Con base en un estudio de simulación, Lesperance et al. (2016) recomiendan usar el método de Goodman (1965) para estas estimaciones por intervalo, debido a su potencia y adecuación, así como la prueba U2 de Watson para el contraste del ajuste del primer dígito significativo al modelo de probabilidad de Newcomb-Benford.

Las seis pruebas de bondad de ajuste aplicadas a la distribución de Newcomb-Benford, mencionadas en el párrafo anterior, así como el cálculo de intervalos de confianza simultáneos por el método de Goodman (1965) se ilustran mediante un ejemplo de datos simulados.

Método del ejemplo

Se creó una muestra de 200 datos con distribución normal estándar Z (con media 0 y varianza unitaria) mediante el generador de números aleatorios del programa Excel 2021. El rango de valores varió de un mínimo de -2.16 a un máximo de 2.65. Se aplicó una transformación lineal para convertir la variable Z en una variable X con distribución normal de media 5.5 y desviación estándar 2 (X = 5.5 + 2 × Z), a semejanza de una variable psicológica de capacidad o temperamento en escala de decatipos o estandarización en 10 puntos (Gunver, 2022), pero no discretizada, sino con rango continuo. Tras la transformación de Z, el rango de X varió de 1.18 a 10.80. Finalmente, se realizó una transformación exponencial de X para convertirla en una variable Y con distribución lognormal: Y = eX . Tras la transformación de X, el rango de Y varió de 3.25 a 48,989.98. Se tomó el primer dígito significativo (no nulo) de cada número de X (DX) e Y (DY).

A continuación, se contrastó el ajuste a la distribución de Newcomb-Benford de DX y DY con un nivel de significación del 5 % mediante las pruebas chi al cuadrado de Pearson, G de Woolf, D de Kolmogorov, W 2 de Cramer y von Mises, A 2 de Anderson y Darling y U 2 de Watson. Se tenía como expectativa que DX mostrara mal ajuste a la distribución de Newcomb-Benford por proceder de una variable con distribución normal, pero que DY tuviera buen ajuste por proceder de una variable con distribución lognormal (Fang, 2022; Scott y Fasli, 2001). En la Tabla 5, se muestran los valores críticos para las seis pruebas de contraste usadas.

Tabla 5 Valores críticos para las pruebas de bondad de ajuste con una hipótesis nula de distribución de Newcomb-Benford para el primer dígito significativo 

Prueba de bondad de ajuste Nivel de significación a
0.10 0.05 0.01
χ 2 de Pearson (1900) y G de Woolf (1957) 13.362 15.507 20.090
Kolmogorov (1933) y Smirnov (1948): D(√n+0.11+0.12/√n) (Stephens, 1986) 1.012 1.148 1.420
Kolmogorov (1933) y Smirnov (1948): D√n (Campanelli, 2024) 1.010 1.150 1.420
W2 de Cramer y von Mises (Lesperance et al., 2016) 0.351 0.471 0.768
U 2 de Watson (Lesperance et al., 2016) 0.163 0.205 0.304
A 2 de Anderson y Darling (Lesperance et al., 2016) 1.743 2.304 3.688

Fuente: elaboración propia.

Hipótesis estadísticas y supuestos de las pruebas de bondad de ajuste

Hipótesis estadísticas comunes para las seis pruebas:

X ~ N(μ = 5.5, σ2 = 4) DX Y ~ Lognormal(μlnY = 5.5, σ2 lnY = 4) DY

DX = primer dígito significativo de X DY = primer dígito significativo de Y

H0: DX ~ NB(m = 1) H0: DY ~ NB(m = 1)

H1: DX ≁ NB(m = 1) H1: DY ≁ NB(m = 1)

Supuestos comunes para las seis pruebas:

Supuesto 1: el primer dígito significativo procede de una variable cuantitativa. En el presente ejemplo, X es una variable cuantitativa que mide el rendimiento en una prueba de aptitud en un continuo de cero a diez, con lo que se cumple el supuesto. Y es una transformación exponencial de X, por lo que también es una variable cuantitativa continua.

Supuesto 2: muestra aleatoria o de datos independientes de la variable cuantitativa de procedencia. La prueba de rachas de Wald y Wolfowitz (1943) permite mantener el supuesto de datos independientes o sin correlación serial (secuencia aleatoria) con un nivel de significación del 5 %, tanto en la muestra de X como en la muestra de Y que es una transformación exponencial de X: R = número de rachas = 111; número de datos muestrales menores que el criterio = n 1 (d < Mdn) = 100; n 2 = número de datos muestrales mayores o iguales que el criterio (dMdn) = 100; z = [rE(R)] / DE(R) = (111−101) / 7.053 = 1.418, p (asintótica a dos colas) = 2 × [1 − P(Z ≤ z)] = 0.136 > α = 0.05 en ambas variables.

Supuesto 3: muestra grande. Usualmente se emplean muestras de al menos 100 datos para comprobar que una variable numérica X cumple la ley de Newcomb-Benford, con lo que una muestra con un tamaño n menor que 100 se considera pequeña para este fin. En sí, una muestra de 98 datos numéricos cumple el requisito de la prueba chi al cuadrado de que al menos el 80 % de las frecuencias absolutas esperadas (n × f e ) sean mayores o iguales que 5 y ninguna menor que 1. En este ejemplo, las muestras para X e Y están constituidas por 200 datos, por lo que no son muestras pequeñas.

Estadístico de contraste, intervalos de confianza simultáneos y decisión de estadística

Se inicia con DX. Conforme a la expectativa, se rechaza la hipótesis nula de bondad de ajuste mediante las seis pruebas de contraste. Véanse los cálculos de los estadísticos de contraste basados en probabilidades puntuales (chi al cuadrado y G) en la Tabla 6, de los estadísticos basados en probabilidades acumulativas (DK, W2, U2 y A2) en la Tabla 7 y los puntos críticos de las seis pruebas en la Tabla 5. La muestra aleatoria de la variable cuantitativa continua X no cumple la ley de Newcomb-Benford, ya que procede de una variable con distribución normal. Cuando se estiman los intervalos de confianza simultáneos al 95 % para las probabilidades puntuales observadas de los nueve dígitos significativos de primer orden por el método de Goodman (1965), resulta que los dígitos uno y dos tienen probabilidades significativamente menores que las esperadas y los dígitos cuatro, cinco, seis y siete tienen probabilidades significativamente mayores que las esperadas, por lo que su ocurrencia en la muestra no corresponde al modelo de probabilidad de Newcomb-Benford (Tabla 6).

Tabla 6 Funcionesde masa de probabilidad empírica y teórica del primer dígito significativo de X = 5.5+2Z y cálculos para las pruebas de ajuste basadas en estas funciones 

DX Observada IC al 95 % Esperada Pearson Woolf
no fo LI LS fe (fo−fe) 2 /fe fo×ln(fo/fe)
1* 7 .035 .013 .092 .301 0.2351 -0.075
2* 13 .065 .031 .131 .176 0.0701 -0.065
3 24 .120 .070 .198 .125 0.0002 -0.005
4* 42 .210 .142 .300 .097 0.1320 0.162
5* 41 .205 .137 .294 .079 0.1999 0.195
6* 29 .145 .089 .227 .067 0.0910 0.112
7* 26 .130 .078 .210 .058 0.0894 0.105
8* 11 .055 .025 .118 .051 0.0003 0.004
9* 7 .035 .013 .092 046 0.0025 -0.009
200 1 0.8205 0.424

Nota. DX = primer dígito significativo de X = 5.5 + 2Z que sigue una distribución normal N(5.5, 4). Con asterisco se señalan los dígitos con frecuencias (estimadores de la probabilidades empíricas) que se desvían significativamente de las probabilidades esperadas cuando se estiman por intervalo con un 95 % de confianza por el método de Goodman, 1965; n o = frecuencia absoluta simple observada de DX; f o = frecuencia relativa simple de DX o función de masa de probabilidad empírica, IC al 95 % = intervalo con un nivel de confianza del 95 % para f 0 calculado por el método de Goodman (1965): LI = límite inferior y LS = límite superior del intervalo; f e = función de masa de probabilidad teórica bajo la hipótesis nula de distribución de Newcomb-Benford o frecuencia puntual esperada. Cálculos para las pruebas de ajuste: χ2 de Pearson (1900) y G de Woolf (1957). ∑ = suma por columna. Fuente: elaboración propia.

Tabla 7 Funciones de distribución acumulativa empírica y teórica del primer dígito significativo de X = 5.5+2Z y cálculos para las pruebas de ajuste basadas en estas funciones 

DX Fo Fe

K:F=Fo-Fe

W

CyM:wF2

F-=wF

Watson:wF-F-2

A y D:wF2/Fe1-Fe

1 0.035 0.301 0.266 0.239 0.01688 -0.0635 0.0010 0.0802
2 0.1 0.477 0.377 0.151 0.02141 -0.0568 0.0047 0.0858
3 0.22 0.602 0.382 0.111 0.01619 -0.0424 0.0037 0.0676
4 0.43 0.699 0.269 0.088 0.00637 -0.0237 0.0004 0.0303
5 0.635 0.778 0.143 0.073 0.00150 -0.0105 0.0002 0.0087
6 0.78 0.845 0.065 0.062 0.00026 -0.0041 0.0011 0.0020
7 0.91 0.903 0.007 0.055 0.000003 0.0004 0.0023 0.00003
8 0.965 0.954 0.011 0.048 0.00001 0.0005 0.0022 0.0001
9 1 1 0 0.347 0 0.0139
? 0.0626 -0.1999 0.0296 0.2748

Nota. DX = primer dígito significativo de X = 5.5 + 2Z que sigue una distribución normal N(μ = 5.5, σ2 = 4), F o = frecuencia relativa acumulada observada de DX o función de distribución acumulativa empírica, F e = función de distribución acumulativa teórica bajo la hipótesis nula de distribución de Newcomb-Benford. K = Kolmogorov = |ΔF| = |F o F e | para el cálculo del estadístico D de la prueba de Kolmogorov (1936), w(d) = [f e(d)+f e(d+1)]/2, d de 1 a 8 y [f e(9)+f e(1)]/2, d = 9 = ponderador para las pruebas W2 de Cramer y von Mises, U2 de Watson y A2 de Anderson y Darling con distribuciones discretas (Lockhart et al., 2007): C y M = Cramer y von Mises: wF)2 = w(d)[F o (d)−F e (d)]2 para el cálculo del estadístico W2, Watson: wF ΔF- )2 = w(d)[(F o (d)−F e (d))− d w(d)(F o (d)−F e (d))]2 para el cálculo del estadístico U2, A y D = Anderson y Darling: wF)2/F e (1−F e ) = [w(d)(F o (d)−F e (d))]/[(F e (d)(1−F e (d))] para el cálculo del estadístico A2. ∑ = suma por columna. Fuente: elaboración propia.

χα/k12=χ0.05/912=χ0.005-12=7.689

LIpod=1=χα/k12+2niχα/k12χα/k12+4nin-nin2n+χα/k12=7.689+2×7-7.6897.689+4×7×200-72002200+7.689=0.013

LSpod=1=χα/k12+2niχα/k12χα/k12+4nin-nin2n+χα/k12=7.689+2×7+7.6897.689+4×7×200-72002200+7.689=.092

Ppod=1LSpod=1, LSpod=1=Ppod=10.013, 0.092=0.95

p e (d = 1) = 0.301 ∉ [0.013, 0.092], por lo que la frecuencia del dígito 1 no corresponde a la probabilidad esperada por la ley de Newcomb-Benford.

Prueba chi al cuadrado de Pearson (1900). Véanse Tablas 5 y 6.

Χ2=nd=19p^od-ped2ped=nd=19fod-fed2fed=200×0.821=164.102

Χ2=164.102> χ1-α#DX-12= χ0.9582=15.507

P χ82164.102=2.217×10-31<α=.05, se rechaza H0.

Prueba de la razón de verosimilitud de Fisher (1929) o prueba G de Woolf (1957). Véanse Tablas 5 y 6.

G=2nd=19fodlnp^odped=2nd=19fodlnfodfed=400×0.424=169.633

Χ2=169.633> χ1-α#DX-12= χ0.9582=15.507

P χ82169.633=1.539×10-32<α=0.05, se rechaza H0.

Prueba D de Kolmogorov (1933) y Smirnov (1948) con los puntos de críticos K α * de Campanelli (2024) y con la transformación DS de Stephens (1986). Véanse Tablas 5 y 7.

DK=maxFod-Fedd=1d=9=0.382

ZDK=DKn=0.382200=5.403

ZDK=5.403>K0.05*=1.150

DS=DKn+0.11+0.12n=0.382200+0.11+0.12200=5.452

DS=5.452>D0.05=1.148, se rechaza H0

Prueba W2 de Cramer y von Mises, U2 de Watson y A2 de Anderson y Darling para distribuciones discretas (Lockhart et al., 2007). Véanse Tablas 5 y 7.

ΔFd=Fod-Fed

wd=fed+fed+12d=1 a 8fe9+fe12               d=9

W2=nd=18fed+fed+12Fod-Fed2=nd=18wdΔFd2

=200×0.063=12.524>W0.052=0.471, se rechaza H0.

ΔF-=d=19wdFod-Fed=d=19wdΔFd=-0.1999

U2=nd=19wdΔFd-ΔF-2=200d=19wdΔFd--0.19992

=200×0.030=5.917>U0.052=0.205, se rechaza H0.

A2=nd=18fed+fed+12Fod-Fed2Fed1-Fed=nd=18wdΔFd2Fed1-Fed

=200×0.275=54.951>A0.052=2.304, se rechaza H0.

Conforme a la expectativa, se mantiene la hipótesis nula de bondad de ajuste con DY (primer dígito significativo de Y) mediante las seis pruebas, con lo que Y cumple la ley de Newcomb-Benford (ver Tabla 8).

Tabla 8 -Funciones de masa de probabilidad empírica y teórica del primer dígito significativo de Y = e X y cálculos para las pruebas de ajuste basadas en estas funciones 

DY Observada IC al 95 % Esp.
no fo LI LS fe
1 65 0.325 0.241 0.422 0.301
2 27 .0.135 0.081 0.216 0.176
3 31 0.155 0.097 0.239 0.125
4 19 0.095 0.052 0.168 0.097
5 22 0.011 0.063 0.186 0.079
6 12 0.006 0.028 0.125 0.067
7 10 0.005 0.022 0.112 0.058
8 4 0.002 0.005 0.070 0.051
9 10 0.005 0.022 0.112 0.046

Nota. DY = primer dígito significativo de Y = eX ~ Lognormal(μlnY = 5.5, σ2 lnY = 4), n o = frecuencia absoluta simple observada (de DY), f o = frecuencia relativa simple de DY, función de masa de probabilidad empírica o probabilidad puntual observada, IC al 95 % = intervalo con un nivel de confianza del 95 % para f 0 calculado por el método de Goodman (1965): LI = límite inferior y LS = límite superior del intervalo y f e = función de masa de probabilidad teórica bajo la hipótesis nula de distribución de Newcomb-Benford o probabilidad puntual esperada. Fuente: elaboración propia.

Pruebas chi al cuadrado y de la razón de verosimilitud o G (Tablas 5 y 8):

Χ2=nd=19fod-fed2fed=200×0.052=10.390 ~ χ#DX-12=χ82

Χ2=10.390< χ.9582=15.507 y P χ8210.390=0.239>α=0.05, se mantiene H0.

G=2nd=19fodlnfodfed=400×0.028=11.352~ χ#DX-12=χ82

G=11.352< χ0.9582=15.507 y P χ8211.352=0.183>α=0.05, se mantiene H0.

Prueba D de Kolmogorov (1933) y Smirnov (1948) con los puntos de críticos Kα * de Campanelli (2024) y con la transformación D S de Stephens (1986).

DK=maxFod-Fedd=1d=9=0.042

ZDK=DKn=0.042200=0.592<K0.05*=1.150, se mantiene H0.

DS=DKn+0.11+0.12n=0.042200+0.11+0.12200=0.597

DS=0.597<D0.05=1.148, se mantiene H0

Pruebas W 2 , U 2 y A 2 para distribuciones discretas (Tablas 5 y 8).

W2=nd=18wdΔFd2=200×0.0005=0.091<W0.052=0.471, se mantiene H0.

ΔF-=d=19wdΔFd=0.012

U2=nd=19wdΔFd-ΔF-2=200d=19wdΔFd-0.0122=200×0.0003=0.067

U2=0.067<U0.052=0.205, se mantiene H0.

A2=nd=18wdΔFd2Fed1-Fed=200×0.0028=0.550<A0.052=2.304, se mantiene H0.

Discusión

La distribución de Newcomb-Benford es una distribución discreta desarrollada para los primeros dígitos. Tiene un soporte acotado de uno a nueve para el primer dígito y de cero a nueve para los siguientes. Presenta asimetría positiva con el primer dígito, pero esta asimetría es mínima con el segundo y de ahí en adelante se vuelve simétrica, ya que converge rápidamente a la distribución uniforme discreta U{0, 9}. Por otra parte, es una distribución platicúrtica o de colas pesadas, y se hace más platicúrtica a medida que aumenta el orden m del dígito hasta converger al valor de una distribución uniforme discreta, presentándose esta convergencia distribucional de forma rápida. Estas características de forma son mostradas adecuadamente por las medidas basadas en momentos centrales estandarizados y las adaptativas y robustas de Hogg (1974), pero no por las medidas basadas en la distancia estandarizada de la media a la moda (Pearson, 1894) o mediana (1895) ni por las basadas en percentiles. De estas últimas, los coeficientes de asimetría y curtosis percentílicos (Kelley, 1947) son las mejores opciones, sin que se recomiende su uso.

Por la asimetría y platicurtosis de la distribución del primer dígito, la mediana y la media geométrica, que toman valores muy próximos, son mejores medidas de tendencia central que la media aritmética y la moda. No obstante, con los dígitos en los siguientes órdenes ya no existe esta ventaja, pues las distribuciones son muy próximas a la simetría o resultan simétricas, además la media geométrica no se puede calcular por la presencia del cero, que es el valor modal.

La variabilidad de las distribuciones de los primeros dígitos significativos es media y tiene alta entropía, que alcanza el máximo de uno en su forma estandarizada a medida que convergen a la distribución uniforme. Con el primer dígito significativo, la desviación estándar geométrica, la desviación media absoluta y desviación mediana absoluta tienen valores muy próximos y aproximadamente un 20 % menor que la desviación estándar aritmética. Con los dígitos en los siguientes órdenes, las medidas de variación geométricas no se pueden calcular debido a la presencia del valor modal cero. Con la distribución de dos dígitos, aunque las medidas de variación geométricas se pueden computar, resultan inadecuadas, pues reflejan una variabilidad excesivamente reducida. Precisamente, son adecuadas para distribuciones con fuerte asimetría positiva que responden a una ley de potencia, pero no para distribuciones simétricas o con escasa asimetría, como la de dos dígitos.

Como se expuso anteriormente, una de las aplicaciones más importante que se da a la distribución de Newcomb-Benford es en la detección del fraude, especialmente en el área de contaduría, estadísticas de población y vivienda, índices macroeconómicos y escrutinio de votos en elecciones populares (Cerqueti y Maggi, 2021). Se parte de la premisa de que en el momento de inventar datos se tiende a distribuirlos de forma homogénea, por lo que los valores más bajos del primer dígito aparecerán con una frecuencia menor que la planteada por el modelo y los valores más altos con una frecuencia mayor que la esperada (Cerasa, 2022). Sin embargo, este comportamiento desviado del modelo de Newcomb-Benford es característico de una distribución simétrica. En psicología es frecuente encontrar variables con distribuciones normales o unimodales simétricas, como las capacidades, rasgos de temperamento y actitudes expresivas libres de presión social en sociedades abiertas (Kenny, 2019; Moral y Valle, 2020), con las cuales no se cumple la ley de Newcomb-Benford (Fang, 2022).

Como se ha procedido en este artículo con una muestra de datos simulados, si la secuencia de una muestra en su orden de recolección resulta aleatoria por la prueba de rachas y la transformación exponencial de sus datos empíricos sigue la distribución de Newcomb-Benford, entonces la muestra es genuina. El test U2 complementado por los intervalos de confianza simultáneos de Goodman parece la mejor estrategia para comprobar el ajuste al modelo (Lesperance et al., 2016). En caso de no ajuste, la sospecha de fraude es fuerte.

Antes de hacer cualquier afirmación de esta naturaleza, se requiere corroborar que muestras aleatorias de la distribución de la variable que se mide, una vez transformados exponencialmente sus datos, cumplen la ley de Newcomb-Benford, para lo que se puede acudir a procedimientos de simulación estadística, es decir, a técnicas de muestreo estadístico controlado bajo modelos de probabilidad especificados (Cerasa, 2022; Kaiser, 2019). En una línea afín, Klepac (2018) ha sugerido usar un procedimiento de lógica difusa con algoritmos de aprendizaje automático (machine learning) para la detección de fraudes en datos científicos.

Cabe señalar que la distribución del primer dígito significativo se ha aplicado en la ciencia cognitiva, campo interdisciplinario que estudia las funciones y procesos de la cognición en seres vivos, humanos y no humanos, y sistemas cibernéticos (Val Danilov, 2023). Esto permite modelar conductas humanas (Chi y Burns, 2022; Striga y Podobnik, 2018). Por consiguiente, se sugiere estudiar la ley de Newcomb-Benford entre las distribuciones que aparecen en diversas áreas de psicología, como personalidad, psicología social, laboral, educativa y de la salud. Precisamente, distribuciones de rasgos patológicos con asimetría positiva, como la depresión, o actitudes de rechazo sometidas a fuerte presión social o en sociedades autoritarias, como el rechazo hacia minorías sexuales o étnicas, pueden cumplir la ley del primer dígito sin requerir transformación, lo que hasta la fecha parece no haber sido estudiado con base en las búsquedas bibliográficas. La distribución de Pareto (discreta) y lognormal (continua) serían modelos de probabilidad alternativos a la distribución de Newcomb-Benford (discreta).

Es importante puntualizar que, en el ejemplo presentado, se han discretizado datos de dos distribuciones continuas: X ~ N(μ = 5.5, σ2 = 4) → DX ~ NB(m = 1) e Y ~ Lognormal(μln(Y) = 5.5, σ2 ln(Y) = 4) → DX ~ NB(m = 1), donde la variable X se definió como un análogo continuo de una escala de decatipos (D), que es discreta (de 1 a 10), y la variable Y resulta de una transformación exponencial de X. El resultado de la transformación de X a DX sería el mismo si las puntuaciones se hubieran discretizado previamente en una escala de decatipos: X → D1 (decatipo) → D2 (primer dígito); no obstante, el resultado sería distinto si se usa D1 para generar Y. Se requiere que la variable sea continua y con distribución normal para generar una distribución lognormal (Feng et al., 2020).

Finalmente, debe señalarse que la ley fue formulada por Newcomb (1881) y que el papel de Benford (1938) fue comprobarla y profundizar en su estudio, por lo que debe denominarse ley de Newcomb-Benford. El hecho de que sea conocida como ley de Benford es un ejemplo de eponimia, como ocurre con la distribución de Cauchy (Schubert et al., 2022).

Conflicto de intereses

El autor declara no tener conflicto de intereses.

Financiamiento

El estudio se realizó con el apoyo de la Facultad de Psicología de la Universidad Autónoma de Nuevo León, donde el autor es profesor investigador de tiempo completo.

Agradecimientos

El autor expresa su agradecimiento a los revisores y editoras por las sugerencias y correcciones recibidas para la mejora del manuscrito.

Referencias

Benford, F. (1938). The Law of Anomalous Numbers. Proceedings of the American Philosophical Society, 78(4), 551-572. http://www.jstor.org/stable/984802Links ]

Berger, A., & Hill, T. P. (2020). The Mathematics of Benford’s Law: A Primer. Statistical Methods & Applications, 30(3), 779-795. https://doi.org/10.1007/s10260-020-00532-8 [ Links ]

Bono, R., Arnau, J., Alarcón, R., & Blanca, M. J. (2020). Bias, Precision, and Accuracy of Skewness and Kurtosis Estimators for Frequently Used Continuous Distributions. Symmetry, 12(1), 19. https://doi.org/10.3390/sym12010019 [ Links ]

Burns, B. D. (2020). Do People Fit to Benford's Law, or Do They Have a Benford Bias? Cognitive Science Society,20(0379), 1729(1735. https://cognitivesciencesociety.org/cogsci20/papers/0379/0379.pdfLinks ]

Burns, B. D., & Krygier, J. (2015). Psychology and Benford’s Law. In S. J. Miller (Ed.), The theory and applications of Benford’s law (pp. 267-275). Princeton University Press https://doi.org/10.23943/princeton/9780691147611.003.0014 [ Links ]

Campanelli, L. (2024). Tuning up the Kolmogorov-Smirnov Test for Testing Benford’s Law. Communications in Statistics-Theory and Methods, 1. https://doi.org/10.1080/03610926.2024.2318608 [ Links ]

Cerasa, A. (2022). Testing for Benford’s Law in Very Small Samples: Simulation Study and a New Test Proposal. PLoS One, 17(7), e0271969. https://doi.org/10.1371/journal.pone.0271969 [ Links ]

Cerqueti, R., & Maggi, M. (2021). Data Validity and Statistical Conformity with Benford’s Law. Chaos, Solitons & Fractals, 144, 110740. https://doi.org/10.1016/j.chaos.2021.110740 [ Links ]

Cerqueti, R., Maggi, M., & Riccioni, J. (2022). Statistical Methods for Decision Support Systems in Finance: How Benford’s Law Predicts Financial Risk. Annals of Operations Research. https://doi.org/10.1007/s10479-022-04742-z [ Links ]

Chi, D., & Burns, B. (2022). Why Do People Fit to Benford’s Law? - A Test of the Recognition Hypothesis. In J. Culbertson, A. Perfors, H. Rabagliati & V. Ramenzoni (Eds.), Proceedings of the 44th Annual Conference of the Cognitive Science Society (pp. 3648(3654 https://escholarship.org/uc/cognitivesciencesociety/44/44Links ]

Coracioni, A. T. (2020). Testing of Published Information on Greenhouse Gas Emissions. Conformity Analysis with the Benford’s Law Method. Audit Financiar, 18(4), 821−830. https://doi.org/10.20869/AUDITF/2020/160/029 [ Links ]

D’Alessandro, A. (2020). Benford’s Law and Metabolomics: A Tale of Numbers and Blood. Transfusion and Apheresis Science , 59(6), 103019. https://doi.org/10.1016/j.transci.2020.103019 [ Links ]

da Silva, A. J., Floquet, S., Santos, D. O. C., & Lima, R. F. (2020). On the Validation of the Newcomb - Benford Law and the Weibull Distribution in Neuromuscular Transmission. Physica A: Statistical Mechanics and Its Applications, 553(1), 124606. https://doi.org/10.1016/j.physa.2020.124606 [ Links ]

Eichhorn, K. (2022). Digitalization of the Menu of Manipulation: Electoral Forensics of Russian Gubernatorial Elections. Demokratizatsiya: The Journal of Post-Soviet Democratization, 30(3), 283−304. https://www.researchgate.net/publication/356834886_Digitalization_of_the_Menu_of_Manipulation_Electoral_Forensics_of_Russian_Gubernatorial_ElectionsLinks ]

Fang, G. (2022). Investigating Hill’s Question for Some Probability Distributions. AIP Advances 12(9), 095004. https://doi.org/10.1063/5.0100429 [ Links ]

Feng, M., Deng, L. J., Chen, F., Perc, M., & Kurths, J. (2020). The Accumulative Law and its Probability Model: An Extension of the Pareto Distribution and the Log-Normal Distribution. Proceedings of the Royal Society, Series A, 476(2237), 20200019. https://doi.org/10.1098/rspa.2020.0019 [ Links ]

Fewster, R. M. (2009). A Simple Explanation of Benford’s Law. The American Statistician, 63(1), 26-32. https://doi.org/10.1198/tast.2009.0005 [ Links ]

Fisher, R. A. (1929). Test of Significance in Harmonic Analysis. Proceedings of the Royal Society of London, Series A (Mathematica, Psychical and Engineering Sciences), 125(796), 54(59. http://doi.org/10.1098/rspa.1929.0151 [ Links ]

Formann, A. K. (2010). The Newcomb-Benford Law in its Relation to Some Common Distributions. PLoS One, 5(5), e10541. https://doi.org/10.1371/journal.pone.0010541 [ Links ]

Golbeck, J. (2019). Benford’s Law Can Detect Malicious Social Bots. First Monday, 24(8), 10163. https://doi.org/10.5210/fm.v24i8.10163 [ Links ]

Goodman, L. A. (1965). On Simultaneous Confidence Intervals for Multinomial Proportions. Technometrics, 7(2), 247-254. https://doi.org/10.1080/00401706.1965.10490252 [ Links ]

Gauvrit, N., Houillon, J. C. & Delahaye, J. P. (2017). Generalized Benford’s Law as a Lie Detector. Advances in Cognitive Psychology, 13(2), 121-127. https://doi.org/10.5709/acp-0212-x [ Links ]

Gunver, M. G. (2022). Norm-Referenced Scoring on Real Data: A Comparative Study of GRiSTEN and STEN. SAGE Open, 12(2), 21582440221091253. https://doi.org/10.1177/21582440221091253 [ Links ]

Hogg, R. V. (1974). Adaptive Robust Procedures: A Partial Review and Some Suggestions for Future Applications and Theory. Journal of the American Statistical Association, 69(348), 909-923. https://doi.org/10.2307/2286160 [ Links ]

Hogg, R. V., Fisher, D. M., & Randles, R. H. (1975). A Two-Sample Adaptive Distribution Free Test. Journal of the American Statistical Association, 70(351), 656-661. https://doi.org/10.2307/2285950 [ Links ]

Jianu, I., & Jianu, I. (2021). Reliability of Financial Information from the Perspective of Benford’s Law. Entropy, 23(5), 557. https://doi.org/10.3390/e23050557 [ Links ]

Kaiser, M. (2019). Benford’s Law as an Indicator of Survey Reliability-Can We Trust our Data? Journal of Economic Surveys, 33(5), 1602−1618. https://doi.org/10.1111/joes.12338 [ Links ]

Kelley, T. L. (1947). Fundamentals of Statistics. Cambridge. Harvard University Press. [ Links ]

Kenny, D. A. (2019). Enhancing Validity in Psychological Research. American Psychologist, 74(9), 1018-1028. https://doi.org/10.1037/amp0000531 [ Links ]

Kilani, A., & Georgiou, G. P. (2021). Countries with Potential Data Misreport Based on Benford’s Law. Journal of Public Health, 43(2), e295-e296. https://doi.org/10.1093/pubmed/fdab001 [ Links ]

Klepac, G. (2018). Cognitive Data Science Automatic Fraud Detection Solution, Based on Benford’s law, Fuzzy Logic with Elements of Machine Learning. In A. Sangaiah, A. Thangavelu, & V. Meenakshi Sundaram (Eds), Cognitive Computing for Big Data Systems Over IoT. Lecture Notes on Data Engineering and Communications Technologies (vol. 14, pp. 79-95). Springer. https://doi.org/10.1007/978-3-319-70688-7_4 [ Links ]

Kolmogorov, A. N. (1933). Sulla Determinazione Empirica di una Legge di Distribuzione [Sobre la determinación empírica de una ley de distribución]. Giornale dell’Istituto Italiano degli Attuari, 4, 83−91. [ Links ]

Kreuzer, M., Jordan, D., Antkowiak, B., Drexler, B., Kochs, E. F., & Schneider, G. (2014). Brain Electrical Activity Obeys Benford’s Law. Anesthesia & Analgesia, 118(1), 183-191. https://doi.org/10.1213/ANE.0000000000000015 [ Links ]

Lacasa, L., & Fernández-Gracia, J. (2019). Election Forensics: Quantitative Methods for Electoral raud Detection. Forensic Science International , 294, e19-e22. https://doi.org/10.1016/j.forsciint.2018.11.010 [ Links ]

Lesperance, M., Reed, W. J., Stephens, M. A., Tsao, C., & Wilton B. (2016). Assessing Conformance with Benford’s Law: Goodness-of-Fit Tests and Simultaneous Confidence Intervals. PLoS One, 11(3), e0151235. https://doi.org/10.1371/journal.pone.0151235 [ Links ]

Lockhart, R. A., Spinelli, J. J., & Stephens, M. A. (2007). Cramér-von Mises Statistics for Discrete Distributions with Unknown Parameters. The Canadian Journal of Statistics, 35(1), 125-133. https://doi.org/10.1002/cjs.5550350111 [ Links ]

Moral, J., & Valle, A. (2020). Validation of the Attitude Towards Sexuality Scale in two Samples of University Students. International Journal of Psychology and Counselling, 12(4), 131-151. https://academicjournals.org/journal/IJPC/article-references/A56ED2A65389Links ]

Newcomb, S. (1881). Note on the Frequency of Use of the Different Digits in Natural Numbers. American Journal of Mathematics, 4(1/4), 39-40. https://doi.org/10.2307/2369148 [ Links ]

Pearson, K. (1894). Contributions to the Mathematical Theory of Evolution. I. On the Dissection of Asymmetrical Frequency Curves. Philosophical Transactions of the Royal Society of London A, 185, 71−110. https://doi.org/10.1098/rsta.1894.0003 [ Links ]

Pearson, K. (1895). Contributions to the Mathematical Theory of Evolution. II. Skew Variation in Homogeneous Material. Philosophical Transactions of the Royal Society of London A, 186, 343-414. https://doi.org/10.1098/rsta.1895.0010 [ Links ]

Pearson, K. (1900). On the Criterion that a Given System of Deviations from the Probably in the Case of a Correlated System of Variables is Such that it Can Be Reasonably Supposed to Have Arisen from Random Sampling. London, Edinburgh and Dublin Philosophical Magazine and Journal of Science,50(302), 157−175. https://doi.org/10.1080/14786440009463897 [ Links ]

Reed, J. F., & Stark, D. B. (1996). Hinge Estimators of Location: Robust to Asymmetry. Computer Methods and Programs in Biomedicine, 49(1), 11−17. https://doi.org/10.1016/0169-2607(95)01708-9 [ Links ]

Schubert, A., Glänzel, W., & Schubert, G. (2022). Eponyms in Science: Famed or Framed? Scientometrics, 127(3), 1199−1207. https://doi.org/10.1007/s11192-022-04298-6 [ Links ]

Scott, P. D., & Fasli, M. (2001). Benford's Law: An Empirical Investigation and a Novel Explanation. CSM Technical Report 349. Department of Computer Science. https://core.ac.uk/download/pdf/19749326.pdfLinks ]

Smirnov, N. (1948). Tables for Estimating the Goodness-Of-Fit of Empirical Distributions. Annals of Mathematical Statistics, 19(2), 279-281. http://dx.doi.org/10.1214/aoms/1177730256 [ Links ]

Stephens, M. A. (1986). Test Based on EDF Statistics. In R. B. D’Agostino & M. A. Stephens (Eds.), Goodness-of-Fit Techniques(pp. 97−194). Marcel Dekker. https://doi.org/10.1201/9780203753064-4 [ Links ]

Striga, D., & Podobnik, V. (2018). Benford’s Law and Dunbar’s Number: Does Facebook Have a Power to Change Natural and Anthropological laws? IEEE Access, 6, 14629(14642. https://doi.org/10.1109/ACCESS.2018.2805712 [ Links ]

Szabo, J. K., Forti, L. R., & Callaghan, C. T. (2023). Large Biodiversity Datasets Conform to Benford’s Law: Implications for Assessing Sampling Heterogeneity. Biological Conservation, 280(6), 109982. https://doi.org/10.1016/j.biocon.2023.109982 [ Links ]

Val Danilov, I. (2023). Theoretical Grounds of Shared Intentionality for Neuroscience in Developing Bioengineering Systems. OBM Neurobiology, 7(1), 156. https://doi.org/10.21926/obm.neurobiol.2301156 [ Links ]

Volčič, A. (2020). Uniform Distribution, Benford’s Law and Scale-Invariance. Bollettino dell'Unione Matematica Italiana, 13(4), 539−543. https://doi.org/10.1007/s40574-020-00245-6 [ Links ]

Wald, A., & Wolfowitz, J. (1943). An Exact Test for Randomness in the Case Non-Parametric Case Based on Serial Correlation. Annals of Mathematic Statistics, 14(4), 378−388. https://doi.org/10.1214/aoms/1177731358 [ Links ]

Woolf, B. (1957). The Log Likelihood Ratio Test (G-Test); Methods and Tables to Test of Heterogeneity in Contingency Tables. Annals of Human Genetics, 21(4), 397−409. https://doi.org/10.1111/j.1469-1809.1972.tb00293.x [ Links ]

Cómo citar este artículo: Moral de la Rubia, J. (2024). Exposición Sencilla y Ejemplificada de la Ley de Newcomb-Benford para Psicólogos. Psicumex, 14(1), 1-35, e648. https://doi.org/10.36793/psicumex.v14i1.648

Recibido: 13 de Abril de 2023; Aprobado: 20 de Febrero de 2024; Publicado: 14 de Agosto de 2024

*Autor para correspondencia: José Moral de la Rubia e-mail: jose_moral@hotmail.com

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons