Introducción
La ley o distribución de probabilidad de Newcomb (1881) y Benford (1938) ha sido de gran interés para los matemáticos que han profundizado en el estudio de sus causas (Berger y Hill, 2020), y se ha aplicado sobre todo a la detección del fraude en bases de datos en contaduría, econometría, demografía y resultados electorales (Kaiser, 2019), así como al estudio de distribuciones de probabilidad (Fang, 2022; Formann, 2010). No obstante, aun cuando podría ser de utilidad es bastante desconocida en la mayoría de los campos de psicología, como en psicología social y de la salud, salvo los campos ligados a la ciencia cognitiva (Burns, 2020). De ahí que el objetivo del artículo es acercar esta ley de probabilidad a investigadores en psicología y campos afines para su estudio y aplicación por medio de una presentación sencilla y ejemplificada aplicada al área.
La ley de los números anómalos o el hecho de que la distribución del primer dígito significativo o distinto de cero de grandes números de mediciones en muestras aleatorias no corresponda a una distribución uniforme, sino a una distribución monótona descendente, donde la probabilidad de que aparezca el uno es seis y media veces mayor que la del nueve fue observada y matematizada por primera vez por el astrónomo americano de origen canadiense Simon Newcomb (1835-1909) en 1881 (ver Figura 1). Newcomb descubrió este fenómeno al notar que las páginas de los libros de tablas de logaritmos que contenían los logaritmos que empezaban con los primeros dígitos (1, 2, …) estaban más desgastadas por el uso que aquellas que contenían logaritmos con los últimos dígitos (…, 8 y 9), siguiendo este desgaste una progresión no lineal descendente. Además, incluyó la ley para el dígito que aparece en segundo lugar. Posteriormente, el físico americano Frank Albert Benford (1883−1948) en 1938 retomó esta regularidad y comprobó que aparecía en colecciones de datos numéricos de fuentes de muy diversa naturaleza. Uno de los usos más importantes de la ley de Newcomb-Benford es la detección de fraudes en informes financieros (Jianu y Jianu, 2021), estadísticas de población y vivienda (Kilani y Georgiou, 2021), bases de datos macroeconómicos (Kaiser, 2019) y conteo de votos en elecciones populares (Golbeck, 2019; Lacasa y Fernández-Gracia, 2019).
En el campo de la psicología cognitiva, Chi y Burns (2022) estudiaron la ley de Newcomb-Benford en tres tareas: de reconocimiento, generación de números y estimación. Conforme al conocimiento que se tiene sobre la ley de los primeros dígitos de Newcomb y Benford, la tarea de generación de números se ajustó bien a dicha ley, replicándose los resultados obtenidos por Burns y Krygier (2015). La tarea de estimación se aproximó a la ley, pero la tarea de reconocimiento se desvió. El comportamiento de esta última tarea correspondió con la distribución uniforme, que es la distribución a la que converge la ley de Newcomb y Benford al incrementar el número de dígitos
El fenómeno observado es explicado como un sesgo cognitivo que puede ser útil para detectar fraude al generar datos (Burns, 2020; Gauvrit et al., 2017). Los ingenieros Striga y Podobnik (2018) constataron que la distribución de los primeros dígitos significativos para el número de amigos y ciertos comportamientos de los usuarios de Facebook, como publicaciones (posts), “me gusta” (likes) y comentarios, siguen la Ley de Newcomb-Benford. En neurociencia, se ha aplicado la ley de Newcomb-Benford como modelo distribucional para explicar la actividad eléctrica cerebral (Kreuzer et al., 2014) y la transmisión neuromuscular (da Silva et al., 2020).
Enunciación de la ley de Newcomb-Benford
Cuando se toma el primer dígito significativo o distinto de cero de mediciones numéricas con un rango amplio, se cumple la ley de Newcomb-Benford si la probabilidad de aparición del uno es 0.301, la del dos es 0.176, del tres es 0.125, del cuatro es 0.097, del cinco es 0.079, del seis es 0.067, del siete es 0.058, del ocho es 0.051 y del nueve es 0.046 - Benford, 1938; Newcomb, 1881- (ver Figura 1). Bajo esta ley, las probabilidades de la sucesión lineal de enteros positivos del uno al nueve que representa el primer dígito no nulo vienen dadas en una escala logarítmica que se puede calcular mediante la siguiente función de masa de probabilidad:
m = orden del dígito de izquierda a derecha del dato numérico x de la variable cuantitativa X. Si m = 1, se trata del primer dígito sin incluir el cero. En caso de que el primer dígito del número x sea 0, se toma el segundo, tercero o siguiente no nulo para especificar el primer dígito significativo, por ejemplo, x = 0.023 → d = 2.
La función de distribución acumulativa corresponde a la siguiente fórmula:
Las fórmulas de las funciones de masa de probabilidad f Dm (d) y distribución acumulativa F Dm (d) para el dígito en el orden m son las siguientes:
Funciones de masa de probabilidad y distribución acumulativa y medidas descriptivasdel primer dígito significativo
En la Tabla 1, se muestran las probabilidades puntuales o valores de la función de masa de probabilidad f D1 (d) y probabilidades acumuladas o valores de la función de distribución acumulativa F D1 (d) de una variable aleatoria discreta D1 (primer dígito significativo) que sigue una distribución de Newcomb-Benford, NB(m = 1); además, aparecen los cálculos para obtener sus medidas descriptivas. Se computan cinco medidas de tendencia central: media aritmética (μ), media geométrica (μg), media armónica (μh), mediana (Mdn) y moda (Mo). Se calculan nueve medidas de variación. Por una parte, se proporcionan cuatro medidas aritméticas: varianza (σ2), desviación estándar (σ), coeficiente de variación (CV), y desviación media absoluta (DMA). Por otra parte, se suministran tres medidas geométricas: varianza (σg 2), desviación estándar (σg) y coeficiente de variación (CV). Adicionalmente, se complementa con la desviación mediana absoluta (DMEA) y entropía estandarizada o eficiencia (η). Finalmente, se valora la forma mediante dos medidas basadas en momentos centrales estandarizados: coeficiente de asimetría (√β1) y exceso de curtosis (β2−3), las cuales se denotan con la notación original de Pearson (1895), así como mediante las medidas de asimetría y curtosis adaptativas y robusta de Hogg (1974), que se denotan por AAR y CAR, respectivamente.
d | f | F | d×f | ln(d)f | (1/d)f | (d−μD) 2f | |d−μD1|f | fln×(f) | (lnx−μlnD1)2f | zd 3×f | zd 4×f |
1 | 0.301 | 0.301 | 0.301 | 0 | 0.301 | 1.793 | 0.735 | 0.735 | 0.278 | -0.293 | 0.291 |
2 | 0.176 | 0.477 | 0.352 | 0.122 | 0.088 | 0.365 | 0.254 | -0.306 | 0.013 | -0.035 | 0.021 |
3 | 0.125 | 0.602 | 0.375 | 0.137 | 0.042 | 0.024 | 0.055 | -0.260 | 0.002 | -0.001 | 0.000 |
4 | 0.097 | 0.699 | 0.388 | 0.134 | 0.024 | 0.030 | 0.054 | -0.226 | 0.018 | 0.001 | 0.000 |
5 | 0.079 | 0.778 | 0.396 | 0.127 | 0.016 | 0.193 | 0.124 | -0.201 | 0.033 | 0.020 | 0.013 |
6 | 0.067 | 0.845 | 0.402 | 0.120 | 0.011 | 0.439 | 0.171 | 0.181 | 0.046 | 0.075 | 0.078 |
7 | 0.058 | 0.903 | 0.406 | 0.113 | 0.008 | 0.735 | 0.206 | -0.165 | 0.056 | 0.176 | 0.254 |
8 | 0.051 | 0.954 | 0.409 | 0.106 | 0.006 | 1.064 | 0.233 | -0.152 | 0.064 | 0.325 | 0.603 |
9 | 0.046 | 1 | 0.412 | 0.101 | 0.005 | 1.414 | 0.254 | -0.141 | 0.070 | 0.528 | 1.192 |
∑ | 1 | 3.440 | 0.961 | 0.502 | 6.057 | 2.086 | -1.993 | 0.580 | 0.796 | 2.452 |
Nota. D1 = primer dígito significativo de X; d = valor discreto de D1; f = f D1 (d) = función de masa de probabilidad de D1 ~ NB(m = 1); F = F D1 (d) = función de distribución acumulativa de D1 ~ NB(m = 1); d×f = producto entre d y f D1 (d); ln(d)f = producto entre el logaritmo del dígito d y f D1 (d); (1/d)f = producto entre el inverso del dígito d y f D1 (d); (d−μD1)2 f = diferencia entre el dígito d y su promedio elevada al cuadrado y multiplicada por f D1 (d); |d−μD1|f = diferencia absoluta entre el dígito d y su promedio multiplicada por f D1 (d); f×ln(f) = producto entre f D1 (d) y el logaritmo neperiano de f D1 (d); (lnd−μlnD)2 f = diferencia del logaritmo neperiano de f D1 (d) y el promedio de estos logaritmos elevada al cuadrado y multiplicada por f D1 (d), z d = (d− μD1)/σ D1 = puntuación estandarizada de d; z d 3×f = producto entre el cubo de la puntuación estandarizada de d y f D1 (d); z d 4×f = producto entre la puntuación estandarizada de d elevada a la cuarta potencia y f D1 (d), ∑ = suma por columna. Fuente: elaboración propia.
De las dos fórmulas propuestas por Hogg (1974) para medir la curtosis, se usa la recomendada por Bono et al. (2020) por su mayor exactitud. Siguiendo a Reed y Stark (1996), valores de AAR menores que 0.7 evidencian asimetría negativa o hacia la cola izquierda, entre 0.7 y 1.4 simetría y mayores que 1.4 asimetría positiva o hacia la cola derecha. Hogg et al. (1975) y Reed y Stark (1996) sugirieron que valores de CAR menores que 1.81 revelan colas ligeras (platicurtosis), entre 1.81 y 1.87 medias (mesocurtosis) y mayores que 1.87 pesadas (leptocurtosis).
Cálculo de la probabilidad del valor 1 para el primer dígito significativo (Tabla 1):
Medidas de tendencia central: la media aritmética es ligeramente mayor que la mediana y claramente mayor que la moda, lo que evidencia asimetría positiva.
Medidas de variación: la variabilidad es media con un coeficiente de variación menor que 0.8 y una desviación media absoluta y una desviación mediana absoluta que corresponden a un cuarto del rango: R(D1)/4 = [Max(D1) - Min(D1)]/4 = (9 - 1)/4 = 2. La entropía estandarizada es alta al alcanzar un valor próximo al máximo de 1.
Medidas de la forma: la distribución muestra asimetría positiva o hacia la cola derecha y ligera platicurtosis o colas acortadas con base en √β1 y β2. Los índices adaptativos y robustos de Hogg (1974) también revelan asimetría hacia la cola derecha (AAR = 3.298 > 1.4) y colas acortadas (CAR = 1.625 < 1.81).
Media aritmética del 5 % de los datos inferiores: MI 5% (D1) = 1
Centrimedia o media truncada al 25 % a cada lado:
MT 25% (D1) = [1×(0.301−0.25)+2×0.176+3×0.125+4×0.097+5×(0.75−0.699)]/0.5 = 2.842
Media aritmética del 5 % de los datos superiores:
MS 5% (D1) = [9×0.046+8×(0.05−0.046)]/0.05 = 8.915
Media aritmética del 20 % de los datos inferiores: MI 20% (D1) = 1
Media aritmética del 50 % de los datos inferiores:
MI 50% (D1) = [1×0.301+2×0.176+3×(0.5−0.477)]/0.5 = 1.444
Media aritmética del 50 % de los datos superiores:
MS 50% (D1) = [9×0.046+8×0.051+7×0.058+6×0.067+5×0.079+4×0.097+3×(0.5−.398)]/0.5 = 5.437; P(d ≥ 4) = 0.046 + 0.051 + 0.058 + 0.067 + 0.079 + 0.097 = 0.398
Media aritmética del 20 % de los datos superiores:
MS 20% (D1) = [9×0.046+8×0.051+7×0.058+6× (0.2−0.046−0.051−0.058)]/0.2 = 7.488
Funciones de masa de probabilidad y distribución acumulativa, y medidas descriptivas para los dígitos significativos que siguen al primero
En la Tabla 2, se presenta el cálculo de las probabilidades puntuales de cada uno de los valores discretos del soporte de la variable D2, que corresponde a la suma por columna.
k | Valores de D2 | |||||||||
0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | |
1 | 0.041 | 0.038 | 0.035 | 0.032 | 0.030 | 0.028 | 0.026 | 0,025 | 0.023 | 0.022 |
2 | 0.021 | 0.020 | 0.019 | 0.018 | 0.018 | 0.017 | 0,016 | 0.016 | 0.015 | 0.015 |
3 | 0.014 | 0.014 | 0.013 | 0.013 | 0.013 | 0.012 | 0.012 | 0.012 | 0.011 | 0.011 |
4 | 0.011 | 0.010 | 0.010 | 0.010 | 0.010 | 0.010 | 0.009 | 0.009 | 0.009 | 0.009 |
5 | 0.009 | 0.008 | 0.008 | 0.008 | 0.008 | 0.008 | 0.008 | 0.008 | 0.007 | 0.007 |
6 | 0.007 | 0.007 | 0.007 | 0.007 | 0.007 | 0.007 | 0.007 | 0.006 | 0.006 | 0.006 |
7 | 0.006 | 0.006 | 0.006 | 0.006 | 0.006 | 0.006 | 0.006 | 0.006 | 0.006 | 0.005 |
8 | 0.005 | 0.005 | 0.005 | 0.005 | 0.005 | 0.005 | 0.005 | 0.005 | 0.005 | 0.005 |
9 | 0.005 | 0.005 | 0.005 | 0.005 | 0.005 | 0.005 | 0.005 | 0.004 | 0.004 | 0.004 |
∑ | 0.120 | 0.114 | 0.109 | 0.104 | 0.100 | 0.097 | 0.093 | 0.090 | 0.088 | 0.085 |
Nota. D2 = segundo dígito significativo o no nulo, k = contador del sumatorio, ∑ = suma por columna que proporciona la probabilidad puntual de cada valor de D2 ~ NB(m = 2). Fuente: elaboración propia.
En la Tabla 3, se muestran las probabilidades puntuales o valores de la función de masa de probabilidad y probabilidades acumuladas o valores de la función de distribución acumulativa del segundo al cuarto dígito.
D | Valores de D2 | Valores de D3 | Valores de D4 | |||
fD2(d) | FD2(d) | fD3(d) | FD3(d) | fD4(d) | FD4(d) | |
0 | 0.1197 | 0.1197 | 0.1018 | 0.1018 | 0.1002 | 0.1002 |
1 | 0.1139 | 0.2336 | 0.1014 | 0.2032 | 0.1001 | 0.2003 |
2 | 0.1088 | 0.3424 | 0.1010 | 0.3041 | 0.1001 | 0.3004 |
3 | 0.1043 | 0.4467 | 0.1006 | 0.4047 | 0.1001 | 0.4005 |
4 | 0.1003 | 0.5470 | 0.1002 | 0.5049 | 0.1000 | 0.5005 |
5 | 0.0967 | 0.6437 | 0.0998 | 0.6047 | 0.1000 | 0.6005 |
6 | 0.0934 | 0.7371 | 0.0994 | 0.7041 | 0.0999 | 0.7004 |
7 | 0.0904 | 0.8274 | 0.0990 | 0.8031 | 0.0999 | 0.8003 |
8 | 0.0876 | 0.9150 | 0.0986 | 0.9017 | 0.0999 | 0.9002 |
9 | 0.0850 | 1 | 0.0983 | 1 | 0.0998 | 1 |
Nota. Dm = dígito significativo en orden m de X, d = valor de Dm, f Dm (d) = función de masa de probabilidad de Dm ~ NB(m), F Dm (d) = función de distribución acumulativa de Dm ~ NB(m) y m = orden del dígito de izquierda a derecha. Fuente: elaboración propia.
En la Tabla 4, se resumen los descriptivos previamente calculados con la distribución del primer dígito y se presentan los correspondientes de las distribuciones del segundo, tercer y cuarto dígito. Debido a que el cero está incluido en el soporte de estas tres últimas distribuciones, la media, varianza, desviación estándar y coeficiente de variación geométricos, y la media armónica no se pueden calcular. Se añaden otras medidas: basadas en la distancia estandarizada de la media a la moda o mediana (Pearson, 1894: A P1 = [μ−Mo]/σ; y Pearson, 1895: A P2 = [μ−Mdn]/σ) y basadas en cuantiles (asimetría intercuartílica A IC , asimetría percentílica A P ), así como la curtosis percentílica centrada en 0 (CPC = CP - 0.263), en la que valores positivos indican colas ligeras y los negativos colas pesadas (Kelley, 1947). En esta misma tabla, se incluyen los descriptivos de la distribución uniforme discreta U{0, 9}. Se puede observar que las distribuciones de los órdenes sucesivos del primero al cuarto se van haciendo más simétricas y platicúrticas y los descriptivos de la distribución de Newcomb-Benford para el cuarto dígito prácticamente coinciden con los de la distribución uniforme, así la distribución del dígito significativo en orden m converge a una distribución uniforme, en la que la probabilidad puntual de cada uno de los diez dígitos es de un décimo. Salvo las percentílicas, estas medidas no reflejan la tendencia mencionada, por lo que son inadecuadas para la distribución de Newcomb-Benford.
Medida descriptiva | Distribución de Newcomb-Benford: orden m del dígito | Distribución uniforme | |||
1° | 2° | 3° | 4° | ||
Medidas de tendencia central | |||||
μ(Dm) | 3.440 | 4.187 | 4.468 | 4.497 | 4.5 |
Mdn(Dm) | 3 | 4 | 4 | 4 | 4.5 |
Mo(Dm) | 1 | 0 | 0 | 0 | - |
Medidas de variación | |||||
σ 2 (Dm) | 6.057 | 8.254 | 8.250 | 8.250 | 8.25 |
σ(Dm) | 2.461 | 2.873 | 2.872 | 2.872 | 2.872 |
CV(Dm) | 0.715 | 0.686 | 0.643 | 0.639 | 0.638 |
DMA(Dm) | 2.086 | 2.490 | 2.500 | 2.500 | 2.5 |
DMEA(Dm) | 2 | 2 | 2 | 2 | 2.5 |
Η(Dm) | 1.993 | 2.297 | 2.303 | 2.303 | 2.303 |
η(Dm) | 0.907 | 0.997 | 0.99997 | 0.9999997 | 1 |
Medidas de asimetría | |||||
√βm(Dm) | 0.796 | 0.133 | 0.014 | 0.001 | 0 |
AP1(Dm) | 0.991 | 1.457 | 1.556 | 1.566 | - |
AP2(Dm) | 0.179 | 0.065 | 0.163 | 0.173 | 0 |
AIC(Dm) | 0 | 0.2 | 0.2 | 0.2 | 0 |
AP(Dm) | 0.333 | 0 | 0 | 0 | 0 |
AAR(Dm) | 3.298 | 1.213 | 1.020 | 1.002 | 1 |
Medidas de curtosis | |||||
β2(Dm)−3 | -0.548 | -1.208 | -1.224 | -1.224 | -1.224 |
CPC(Dm) | 0.070 | 0.049 | 0.049 | 0.049 | 0.049 |
CAR(Dm) | 1.625 | 1.595 | 1.5999 | 1.599999 | 1.6 |
Nota. Medidas de tendencia central: μ(Dm) = esperanza matemática o media aritmética, Mdn(Dm) = mediana y Mo(Dm) = moda. Medidas de variación: σ2(Dm) = varianza, σ(Dm) = desviación estándar, CV(Dm) = coeficiente de variación, DMA(Dm) = desviación media absoluta, DMEA(Dm) = desviación mediana absoluta, Η(Dm) = entropía y η(Dm) = Η(Dm)/ln(#Dm) = entropía estandarizada o eficiencia. Medidas de la forma: √β1(Dm) = coeficiente de asimetría basado en el tercer momento central estandarizado, A P1 (Dm) = primer coeficiente de asimetría de Pearson (1894) = [μ(Dm)−Mdn(Dm)]/σ(Dm), A P2 (Dm) = segundo coeficiente de asimetría de Pearson (1895) = [μ(Dm)−Mo(Dm)]/σ(Dm), A IC (Dm) = coeficiente de asimetría intercuartílico = [P 25 (Dm)+P 75 (Dm)−2P 50 (Dm)]/[P 75 (Dm)−P 25 (Dm)], A P (Dm) = coeficiente de asimetría percentílico = [P 10 (Dm)+P 90 (Dm)−2P 50 (Dm)]/[P 90 (Dm)−P 10 (Dm)], AAR(Dm) = medida de asimetría adaptativa y robusta de Hogg (MS 5% −MT 25% )/(MT 25% −MI 5% ) y β2(Dm)−3 = exceso de curtosis basado en el cuarto momento central estandarizado, CPC = coeficiente de curtosis percentílico centrado en 0 = {[P 75 (Dm)−P 25 (Dm)]/[2(P 90 (Dm)−P 10 (Dm))]} - 0.263 y CAR(Dm) = medida de curtosis adaptativa y robusta de Hogg = (MS 20% −MI 20% )/(MS 50% −MI 50% ). Fuente: elaboración propia.
La función de Newcomb-Benford para dos o más dígitos significativos
Las fórmulas de la distribución de Newcomb-Benford del primer dígito permiten el cálculo de las probabilidades para dos o más dígitos significativos. Como en la distribución del primer dígito significativo, se puede calcular la media, varianza, desviación estándar y coeficiente de variación geométricos, así como la media armónica, ya que no aparece el cero. En el caso de dos dígitos, el soporte de la distribución empieza en diez y se termina en 99. En la medida que se incrementa el número de dígitos, converge a una distribución uniforme discreta.
Medidas de tendencia central: La media aritmética es mayor que la media y mucho mayor que la moda, que es el primer valor. La media geométrica y la mediana toman valores muy próximos.
Medidas de variación: Las medidas de variación geométricas presentan valores muy bajos en comparación con las aritméticas y la desviación mediana absoluta.
Medidas de la forma: se observa asimetría positiva y platicurtosis por ambos índices.
Explicación de la ley de Newcomb-Benford
Se podría argumentar que la ley de Newcomb-Benford responde a un artefacto relacionado con la transformación logarítmica con base decimal de los dígitos. En contra de esta crítica, la distribución aparece con cualquier tipo de base logarítmica con tal de que la base sea mayor o igual que dos; es invariante a la unidad de medida de la variable cuantitativa y es específica a distribuciones con ciertas características (Berger y Hill, 2020).
Requiere de muestras aleatorias grandes de mediciones cuantitativas (de 100 o más y de preferencia 500 o más datos) y el hecho de que sean heterogéneas en cuanto a fuentes de procedencia facilita el cumplimiento (Benford, 1938). Los números deben abarcar un rango amplio y facilita que tengan varianza grande (Szabo et al., 2023). Muestras pequeñas (sobre todo menores de 30, incluso menores de 100 datos) con varianza reducida y de una única fuente, especialmente con restricciones y acotamientos impuestos, dificulta que se dé la ley de los primeros dígitos de Newcomb-Benford (1938).
Así, los ordenamientos secuenciales y mediciones con restricciones que limitan el rango e imponen valores mínimos y máximos no cumplen la ley (Cerqueti y Maggi, 2021). Los índices multiplicativos suelen seguir la ley (Berger y Hill, 2020). Si el soporte de la distribución son los números reales positivos, la media es mayor que la mediana, de preferencia al menos el doble, hay una única moda y la distribución muestra asimetría positiva, como la exponencial, es más fácil que se cumpla la ley (Lesperance et al., 2016). El que la distribución esté truncada y sea simétrica lo dificulta (Fang, 2022). También la mixtura de distribuciones facilita el cumplimiento de la ley o al menos que se dé una convergencia distribucional en la medida que se agregan más distribuciones (D’Alessandro, 2020).
El primer dígito significativo de distribuciones simétricas con soporte en el intervalo (−∞, ∞), como la normal, no sigue la distribución de Newcomb-Benford, pero sí su transformación logarítmica (Fang, 2022). Asimismo, si dichas variables simétricas se estandarizan y se elevan a la potencia de diez, también se cumple la ley (Scott y Fasli, 2001). La distribución uniforme incumple la ley, pero no el cociente entre dos distribuciones uniformes independientes (Volčič, 2020). Las distribuciones platicúrticas con parámetros de umbral, como la semicircular, la incumplen, pero su mixtura la puede cumplir (D’Alessandro, 2020).
Si una muestra al ser transformada a escala logarítmica presenta una amplia dispersión y se observa que los intervalos de números con el mismo primer dígito significativo tienen un ancho homogéneo y proporcional a su probabilidad en la distribución de Newcomb-Benford, entonces se cumple bien la ley (Coracioni, 2020). Por el contrario, se incumple si la dispersión en la escala logarítmica es pequeña y la altura de los intervalos de los números con el mismo primer dígito significativo, pero no su ancho, es proporcional a la probabilidad de la ley (Fewster, 2009).
De estas regularidades se colige que la ley de Newcomb-Benford responde al teorema multiplicativo del límite central, lo que la relaciona con la distribución lognormal (Formann, 2010). Cuando un fenómeno medido con una variable cuantitativa está determinado por diversas causas con efecto multiplicativo, a medida que se acumula más este efecto de dispersión, mejor se ajusta a la ley de Newcomb-Benford (Cerqueti et al., 2022; Scott y Fasli, 2001).
Contraste del ajuste de muestras de datos continuos a la ley de Newcomb-Benford
Para comprobar si una colección de datos o una muestra aleatoria de una variable cuantitativa X cumple la ley de Newcomb-Benford, se pueden aplicar pruebas de bondad de ajuste, como las pruebas chi al cuadrado de Pearson (1900) y G o de la razón de verosimilitud (Fisher, 1929; Woolf, 1957), como sugieren Eichhorn (2022). Aparte de estas dos pruebas de bondad de ajuste, está la prueba D de Kolmogorov (1933) y Smirnov (1948) con la transformación de Stephens (1986) o con los puntos críticos de Campanelli (2024). Esta tercera prueba se fundamenta en la distancia máxima entre la función de distribución acumulativa empírica y la teórica. También, están las pruebas W2 de Cramer y von Mises, A2 de Anderson y Darling, y U2 de Watson en su variante para distribuciones discretas (Cerasa, 2022; Lesperance et al., 2016; Lockhart et al., 2007). Estas últimas tres pruebas se basan en el cuadrado de la distancia ponderada entre la función de distribución acumulativa empírica y la teórica.
Para ser más específicos cuando se determina la desviación entre los datos y el modelo, se pueden calcular intervalos de confianza simultáneos para las probabilidades puntuales de los nueve valores de la distribución empírica del primer dígito significativo. Con base en un estudio de simulación, Lesperance et al. (2016) recomiendan usar el método de Goodman (1965) para estas estimaciones por intervalo, debido a su potencia y adecuación, así como la prueba U2 de Watson para el contraste del ajuste del primer dígito significativo al modelo de probabilidad de Newcomb-Benford.
Las seis pruebas de bondad de ajuste aplicadas a la distribución de Newcomb-Benford, mencionadas en el párrafo anterior, así como el cálculo de intervalos de confianza simultáneos por el método de Goodman (1965) se ilustran mediante un ejemplo de datos simulados.
Método del ejemplo
Se creó una muestra de 200 datos con distribución normal estándar Z (con media 0 y varianza unitaria) mediante el generador de números aleatorios del programa Excel 2021. El rango de valores varió de un mínimo de -2.16 a un máximo de 2.65. Se aplicó una transformación lineal para convertir la variable Z en una variable X con distribución normal de media 5.5 y desviación estándar 2 (X = 5.5 + 2 × Z), a semejanza de una variable psicológica de capacidad o temperamento en escala de decatipos o estandarización en 10 puntos (Gunver, 2022), pero no discretizada, sino con rango continuo. Tras la transformación de Z, el rango de X varió de 1.18 a 10.80. Finalmente, se realizó una transformación exponencial de X para convertirla en una variable Y con distribución lognormal: Y = eX . Tras la transformación de X, el rango de Y varió de 3.25 a 48,989.98. Se tomó el primer dígito significativo (no nulo) de cada número de X (DX) e Y (DY).
A continuación, se contrastó el ajuste a la distribución de Newcomb-Benford de DX y DY con un nivel de significación del 5 % mediante las pruebas chi al cuadrado de Pearson, G de Woolf, D de Kolmogorov, W 2 de Cramer y von Mises, A 2 de Anderson y Darling y U 2 de Watson. Se tenía como expectativa que DX mostrara mal ajuste a la distribución de Newcomb-Benford por proceder de una variable con distribución normal, pero que DY tuviera buen ajuste por proceder de una variable con distribución lognormal (Fang, 2022; Scott y Fasli, 2001). En la Tabla 5, se muestran los valores críticos para las seis pruebas de contraste usadas.
Prueba de bondad de ajuste | Nivel de significación a | ||
0.10 | 0.05 | 0.01 | |
χ 2 de Pearson (1900) y G de Woolf (1957) | 13.362 | 15.507 | 20.090 |
Kolmogorov (1933) y Smirnov (1948): D(√n+0.11+0.12/√n) (Stephens, 1986) | 1.012 | 1.148 | 1.420 |
Kolmogorov (1933) y Smirnov (1948): D√n (Campanelli, 2024) | 1.010 | 1.150 | 1.420 |
W2 de Cramer y von Mises (Lesperance et al., 2016) | 0.351 | 0.471 | 0.768 |
U 2 de Watson (Lesperance et al., 2016) | 0.163 | 0.205 | 0.304 |
A 2 de Anderson y Darling (Lesperance et al., 2016) | 1.743 | 2.304 | 3.688 |
Fuente: elaboración propia.
Hipótesis estadísticas y supuestos de las pruebas de bondad de ajuste
Hipótesis estadísticas comunes para las seis pruebas:
X ~ N(μ = 5.5, σ2 = 4) DX Y ~ Lognormal(μlnY = 5.5, σ2 lnY = 4) DY
DX = primer dígito significativo de X DY = primer dígito significativo de Y
H0: DX ~ NB(m = 1) H0: DY ~ NB(m = 1)
H1: DX ≁ NB(m = 1) H1: DY ≁ NB(m = 1)
Supuestos comunes para las seis pruebas:
Supuesto 1: el primer dígito significativo procede de una variable cuantitativa. En el presente ejemplo, X es una variable cuantitativa que mide el rendimiento en una prueba de aptitud en un continuo de cero a diez, con lo que se cumple el supuesto. Y es una transformación exponencial de X, por lo que también es una variable cuantitativa continua.
Supuesto 2: muestra aleatoria o de datos independientes de la variable cuantitativa de procedencia. La prueba de rachas de Wald y Wolfowitz (1943) permite mantener el supuesto de datos independientes o sin correlación serial (secuencia aleatoria) con un nivel de significación del 5 %, tanto en la muestra de X como en la muestra de Y que es una transformación exponencial de X: R = número de rachas = 111; número de datos muestrales menores que el criterio = n 1 (d < Mdn) = 100; n 2 = número de datos muestrales mayores o iguales que el criterio (d ≥ Mdn) = 100; z = [r − E(R)] / DE(R) = (111−101) / 7.053 = 1.418, p (asintótica a dos colas) = 2 × [1 − P(Z ≤ z)] = 0.136 > α = 0.05 en ambas variables.
Supuesto 3: muestra grande. Usualmente se emplean muestras de al menos 100 datos para comprobar que una variable numérica X cumple la ley de Newcomb-Benford, con lo que una muestra con un tamaño n menor que 100 se considera pequeña para este fin. En sí, una muestra de 98 datos numéricos cumple el requisito de la prueba chi al cuadrado de que al menos el 80 % de las frecuencias absolutas esperadas (n × f e ) sean mayores o iguales que 5 y ninguna menor que 1. En este ejemplo, las muestras para X e Y están constituidas por 200 datos, por lo que no son muestras pequeñas.
Estadístico de contraste, intervalos de confianza simultáneos y decisión de estadística
Se inicia con DX. Conforme a la expectativa, se rechaza la hipótesis nula de bondad de ajuste mediante las seis pruebas de contraste. Véanse los cálculos de los estadísticos de contraste basados en probabilidades puntuales (chi al cuadrado y G) en la Tabla 6, de los estadísticos basados en probabilidades acumulativas (DK, W2, U2 y A2) en la Tabla 7 y los puntos críticos de las seis pruebas en la Tabla 5. La muestra aleatoria de la variable cuantitativa continua X no cumple la ley de Newcomb-Benford, ya que procede de una variable con distribución normal. Cuando se estiman los intervalos de confianza simultáneos al 95 % para las probabilidades puntuales observadas de los nueve dígitos significativos de primer orden por el método de Goodman (1965), resulta que los dígitos uno y dos tienen probabilidades significativamente menores que las esperadas y los dígitos cuatro, cinco, seis y siete tienen probabilidades significativamente mayores que las esperadas, por lo que su ocurrencia en la muestra no corresponde al modelo de probabilidad de Newcomb-Benford (Tabla 6).
DX | Observada | IC al 95 % | Esperada | Pearson | Woolf | ||
no | fo | LI | LS | fe | (fo−fe) 2 /fe | fo×ln(fo/fe) | |
1* | 7 | .035 | .013 | .092 | .301 | 0.2351 | -0.075 |
2* | 13 | .065 | .031 | .131 | .176 | 0.0701 | -0.065 |
3 | 24 | .120 | .070 | .198 | .125 | 0.0002 | -0.005 |
4* | 42 | .210 | .142 | .300 | .097 | 0.1320 | 0.162 |
5* | 41 | .205 | .137 | .294 | .079 | 0.1999 | 0.195 |
6* | 29 | .145 | .089 | .227 | .067 | 0.0910 | 0.112 |
7* | 26 | .130 | .078 | .210 | .058 | 0.0894 | 0.105 |
8* | 11 | .055 | .025 | .118 | .051 | 0.0003 | 0.004 |
9* | 7 | .035 | .013 | .092 | 046 | 0.0025 | -0.009 |
∑ | 200 | 1 | 0.8205 | 0.424 |
Nota. DX = primer dígito significativo de X = 5.5 + 2Z que sigue una distribución normal N(5.5, 4). Con asterisco se señalan los dígitos con frecuencias (estimadores de la probabilidades empíricas) que se desvían significativamente de las probabilidades esperadas cuando se estiman por intervalo con un 95 % de confianza por el método de Goodman, 1965; n o = frecuencia absoluta simple observada de DX; f o = frecuencia relativa simple de DX o función de masa de probabilidad empírica, IC al 95 % = intervalo con un nivel de confianza del 95 % para f 0 calculado por el método de Goodman (1965): LI = límite inferior y LS = límite superior del intervalo; f e = función de masa de probabilidad teórica bajo la hipótesis nula de distribución de Newcomb-Benford o frecuencia puntual esperada. Cálculos para las pruebas de ajuste: χ2 de Pearson (1900) y G de Woolf (1957). ∑ = suma por columna. Fuente: elaboración propia.
DX | Fo | Fe |
|
W |
|
|
|
|
1 | 0.035 | 0.301 | 0.266 | 0.239 | 0.01688 | -0.0635 | 0.0010 | 0.0802 |
2 | 0.1 | 0.477 | 0.377 | 0.151 | 0.02141 | -0.0568 | 0.0047 | 0.0858 |
3 | 0.22 | 0.602 | 0.382 | 0.111 | 0.01619 | -0.0424 | 0.0037 | 0.0676 |
4 | 0.43 | 0.699 | 0.269 | 0.088 | 0.00637 | -0.0237 | 0.0004 | 0.0303 |
5 | 0.635 | 0.778 | 0.143 | 0.073 | 0.00150 | -0.0105 | 0.0002 | 0.0087 |
6 | 0.78 | 0.845 | 0.065 | 0.062 | 0.00026 | -0.0041 | 0.0011 | 0.0020 |
7 | 0.91 | 0.903 | 0.007 | 0.055 | 0.000003 | 0.0004 | 0.0023 | 0.00003 |
8 | 0.965 | 0.954 | 0.011 | 0.048 | 0.00001 | 0.0005 | 0.0022 | 0.0001 |
9 | 1 | 1 | 0 | 0.347 | 0 | 0.0139 | ||
? | 0.0626 | -0.1999 | 0.0296 | 0.2748 |
Nota. DX = primer dígito significativo de X = 5.5 + 2Z que sigue una distribución normal N(μ = 5.5, σ2 = 4), F
o
= frecuencia relativa acumulada observada de DX o función de distribución acumulativa empírica, F
e
= función de distribución acumulativa teórica bajo la hipótesis nula de distribución de Newcomb-Benford. K = Kolmogorov = |ΔF| = |F
o
−F
e
| para el cálculo del estadístico D de la prueba de Kolmogorov (1936), w(d) = [f
e(d)+f
e(d+1)]/2, d de 1 a 8 y [f
e(9)+f
e(1)]/2, d = 9 = ponderador para las pruebas W2 de Cramer y von Mises, U2 de Watson y A2 de Anderson y Darling con distribuciones discretas (Lockhart et al., 2007): C y M = Cramer y von Mises: w(ΔF)2 = w(d)[F
o
(d)−F
e
(d)]2 para el cálculo del estadístico W2, Watson: w(ΔF−
p e (d = 1) = 0.301 ∉ [0.013, 0.092], por lo que la frecuencia del dígito 1 no corresponde a la probabilidad esperada por la ley de Newcomb-Benford.
Prueba chi al cuadrado de Pearson (1900). Véanse Tablas 5 y 6.
Prueba de la razón de verosimilitud de Fisher (1929) o prueba G de Woolf (1957). Véanse Tablas 5 y 6.
Prueba D de Kolmogorov (1933) y Smirnov (1948) con los puntos de críticos K α * de Campanelli (2024) y con la transformación DS de Stephens (1986). Véanse Tablas 5 y 7.
Prueba W2 de Cramer y von Mises, U2 de Watson y A2 de Anderson y Darling para distribuciones discretas (Lockhart et al., 2007). Véanse Tablas 5 y 7.
Conforme a la expectativa, se mantiene la hipótesis nula de bondad de ajuste con DY (primer dígito significativo de Y) mediante las seis pruebas, con lo que Y cumple la ley de Newcomb-Benford (ver Tabla 8).
DY | Observada | IC al 95 % | Esp. | ||
no | fo | LI | LS | fe | |
1 | 65 | 0.325 | 0.241 | 0.422 | 0.301 |
2 | 27 | .0.135 | 0.081 | 0.216 | 0.176 |
3 | 31 | 0.155 | 0.097 | 0.239 | 0.125 |
4 | 19 | 0.095 | 0.052 | 0.168 | 0.097 |
5 | 22 | 0.011 | 0.063 | 0.186 | 0.079 |
6 | 12 | 0.006 | 0.028 | 0.125 | 0.067 |
7 | 10 | 0.005 | 0.022 | 0.112 | 0.058 |
8 | 4 | 0.002 | 0.005 | 0.070 | 0.051 |
9 | 10 | 0.005 | 0.022 | 0.112 | 0.046 |
Nota. DY = primer dígito significativo de Y = eX ~ Lognormal(μlnY = 5.5, σ2 lnY = 4), n o = frecuencia absoluta simple observada (de DY), f o = frecuencia relativa simple de DY, función de masa de probabilidad empírica o probabilidad puntual observada, IC al 95 % = intervalo con un nivel de confianza del 95 % para f 0 calculado por el método de Goodman (1965): LI = límite inferior y LS = límite superior del intervalo y f e = función de masa de probabilidad teórica bajo la hipótesis nula de distribución de Newcomb-Benford o probabilidad puntual esperada. Fuente: elaboración propia.
Pruebas chi al cuadrado y de la razón de verosimilitud o G (Tablas 5 y 8):
Prueba D de Kolmogorov (1933) y Smirnov (1948) con los puntos de críticos Kα * de Campanelli (2024) y con la transformación D S de Stephens (1986).
Pruebas W 2 , U 2 y A 2 para distribuciones discretas (Tablas 5 y 8).
Discusión
La distribución de Newcomb-Benford es una distribución discreta desarrollada para los primeros dígitos. Tiene un soporte acotado de uno a nueve para el primer dígito y de cero a nueve para los siguientes. Presenta asimetría positiva con el primer dígito, pero esta asimetría es mínima con el segundo y de ahí en adelante se vuelve simétrica, ya que converge rápidamente a la distribución uniforme discreta U{0, 9}. Por otra parte, es una distribución platicúrtica o de colas pesadas, y se hace más platicúrtica a medida que aumenta el orden m del dígito hasta converger al valor de una distribución uniforme discreta, presentándose esta convergencia distribucional de forma rápida. Estas características de forma son mostradas adecuadamente por las medidas basadas en momentos centrales estandarizados y las adaptativas y robustas de Hogg (1974), pero no por las medidas basadas en la distancia estandarizada de la media a la moda (Pearson, 1894) o mediana (1895) ni por las basadas en percentiles. De estas últimas, los coeficientes de asimetría y curtosis percentílicos (Kelley, 1947) son las mejores opciones, sin que se recomiende su uso.
Por la asimetría y platicurtosis de la distribución del primer dígito, la mediana y la media geométrica, que toman valores muy próximos, son mejores medidas de tendencia central que la media aritmética y la moda. No obstante, con los dígitos en los siguientes órdenes ya no existe esta ventaja, pues las distribuciones son muy próximas a la simetría o resultan simétricas, además la media geométrica no se puede calcular por la presencia del cero, que es el valor modal.
La variabilidad de las distribuciones de los primeros dígitos significativos es media y tiene alta entropía, que alcanza el máximo de uno en su forma estandarizada a medida que convergen a la distribución uniforme. Con el primer dígito significativo, la desviación estándar geométrica, la desviación media absoluta y desviación mediana absoluta tienen valores muy próximos y aproximadamente un 20 % menor que la desviación estándar aritmética. Con los dígitos en los siguientes órdenes, las medidas de variación geométricas no se pueden calcular debido a la presencia del valor modal cero. Con la distribución de dos dígitos, aunque las medidas de variación geométricas se pueden computar, resultan inadecuadas, pues reflejan una variabilidad excesivamente reducida. Precisamente, son adecuadas para distribuciones con fuerte asimetría positiva que responden a una ley de potencia, pero no para distribuciones simétricas o con escasa asimetría, como la de dos dígitos.
Como se expuso anteriormente, una de las aplicaciones más importante que se da a la distribución de Newcomb-Benford es en la detección del fraude, especialmente en el área de contaduría, estadísticas de población y vivienda, índices macroeconómicos y escrutinio de votos en elecciones populares (Cerqueti y Maggi, 2021). Se parte de la premisa de que en el momento de inventar datos se tiende a distribuirlos de forma homogénea, por lo que los valores más bajos del primer dígito aparecerán con una frecuencia menor que la planteada por el modelo y los valores más altos con una frecuencia mayor que la esperada (Cerasa, 2022). Sin embargo, este comportamiento desviado del modelo de Newcomb-Benford es característico de una distribución simétrica. En psicología es frecuente encontrar variables con distribuciones normales o unimodales simétricas, como las capacidades, rasgos de temperamento y actitudes expresivas libres de presión social en sociedades abiertas (Kenny, 2019; Moral y Valle, 2020), con las cuales no se cumple la ley de Newcomb-Benford (Fang, 2022).
Como se ha procedido en este artículo con una muestra de datos simulados, si la secuencia de una muestra en su orden de recolección resulta aleatoria por la prueba de rachas y la transformación exponencial de sus datos empíricos sigue la distribución de Newcomb-Benford, entonces la muestra es genuina. El test U2 complementado por los intervalos de confianza simultáneos de Goodman parece la mejor estrategia para comprobar el ajuste al modelo (Lesperance et al., 2016). En caso de no ajuste, la sospecha de fraude es fuerte.
Antes de hacer cualquier afirmación de esta naturaleza, se requiere corroborar que muestras aleatorias de la distribución de la variable que se mide, una vez transformados exponencialmente sus datos, cumplen la ley de Newcomb-Benford, para lo que se puede acudir a procedimientos de simulación estadística, es decir, a técnicas de muestreo estadístico controlado bajo modelos de probabilidad especificados (Cerasa, 2022; Kaiser, 2019). En una línea afín, Klepac (2018) ha sugerido usar un procedimiento de lógica difusa con algoritmos de aprendizaje automático (machine learning) para la detección de fraudes en datos científicos.
Cabe señalar que la distribución del primer dígito significativo se ha aplicado en la ciencia cognitiva, campo interdisciplinario que estudia las funciones y procesos de la cognición en seres vivos, humanos y no humanos, y sistemas cibernéticos (Val Danilov, 2023). Esto permite modelar conductas humanas (Chi y Burns, 2022; Striga y Podobnik, 2018). Por consiguiente, se sugiere estudiar la ley de Newcomb-Benford entre las distribuciones que aparecen en diversas áreas de psicología, como personalidad, psicología social, laboral, educativa y de la salud. Precisamente, distribuciones de rasgos patológicos con asimetría positiva, como la depresión, o actitudes de rechazo sometidas a fuerte presión social o en sociedades autoritarias, como el rechazo hacia minorías sexuales o étnicas, pueden cumplir la ley del primer dígito sin requerir transformación, lo que hasta la fecha parece no haber sido estudiado con base en las búsquedas bibliográficas. La distribución de Pareto (discreta) y lognormal (continua) serían modelos de probabilidad alternativos a la distribución de Newcomb-Benford (discreta).
Es importante puntualizar que, en el ejemplo presentado, se han discretizado datos de dos distribuciones continuas: X ~ N(μ = 5.5, σ2 = 4) → DX ~ NB(m = 1) e Y ~ Lognormal(μln(Y) = 5.5, σ2 ln(Y) = 4) → DX ~ NB(m = 1), donde la variable X se definió como un análogo continuo de una escala de decatipos (D), que es discreta (de 1 a 10), y la variable Y resulta de una transformación exponencial de X. El resultado de la transformación de X a DX sería el mismo si las puntuaciones se hubieran discretizado previamente en una escala de decatipos: X → D1 (decatipo) → D2 (primer dígito); no obstante, el resultado sería distinto si se usa D1 para generar Y. Se requiere que la variable sea continua y con distribución normal para generar una distribución lognormal (Feng et al., 2020).
Finalmente, debe señalarse que la ley fue formulada por Newcomb (1881) y que el papel de Benford (1938) fue comprobarla y profundizar en su estudio, por lo que debe denominarse ley de Newcomb-Benford. El hecho de que sea conocida como ley de Benford es un ejemplo de eponimia, como ocurre con la distribución de Cauchy (Schubert et al., 2022).