PROCESO DE SELECCIÓN DE VARIABLES EXPLICATIVAS EN MODELOS ESTADÍSTICOS

ISADORE NABI

# PROCESO DE SELECCIÓN DE VARIABLES EXPLICATIVAS
## Introducción: Sobre la necesidad de un proceso de selección de predictores
Usualmente se tiene interés en explicar los datos de la forma más simple, lo cual en el contexto de la teoría de las probabilidades (especialmente en la teoría bayesiana de probabilidades) se conoce como el *principio de parsimonia*, el cual está inspirado en el principio filosófico conocido como *navaja de Ockham*, la cual establece que en igualdad de condiciones la explicación más simple suele ser la más probable. El principio de parsimonia adopta diferentes formas según el área de estudio del análisis inferencial en el que se encuentre un investigador. Por ejemplo, una parametrización parsimoniosa es aquella que usa el número óptimo de parámetros para explicar el conjunto de datos de los que se dispone, pero "parsimonia" también puede referirse a modelos de regresión parsimoniosos, es decir, modelos que utilizan como criterio de optimización emplear la mínima cantidad de coeficientes de regresión para explicar una respuesta condicional Y. El principio de parsimonia, los procesos matemáticos de optimización regidos por el criterio de alcanzar un mínimo y la navaja de Ockham son un mismo tipo de lógica aplicado en escalas de la existencia (que podríamos llamar en general "materia", como lo hace Landau en sus curso de física teórica) cualitativamente diferentes. La historia de la Filosofía demuestra que el único sistema que podría ser aplicado así exitosamente es el sistema hegeliano (lo que obedece a que parcialmente sigue la lógica de la existencia misma, como han demostrado Marx, Engels, Lenin, Levins, Lewontin y el mismo Hegel en su extensa obra). ¿Cómo es posible la vinculación en distintas escalas cualitativas de la realidad del principio de la navaja de Ockham? A que todas esas ideas responden a la escuela filosófica de Ockham, que era la escuela nominalista. Retomando lo que señalan (Rosental & Iudin. Diccionario Filosófico, Editorial Tecolut, 1971. p.341; véase https://www.filosofia.org/enc/ros/nom.htm), el nominalismo fue una corriente de la filosofía medieval que consideraba (ya es una escuela extinta) que los conceptos generales tan sólo son nombres de los objetos singulares. Los nominalistas afirmaban que sólo poseen existencia real las cosas en sí, con sus cualidades individuales (es decir, las generalizaciones para ellos no tenían valor gnoseológico en sí mismas sino como recurso gnoseológico). Los nominalistas van más allá, planteando que las generalizaciones no sólo no existen con independencia de los objetos particulares (esta afirmación en correcta, lo que no es correcto es pensar que lo inverso sí es cierto), sino que ni siquiera reflejan las propiedades y cualidades de las cosas. El nominalisto se hallaba indisolublemente vinculado a las tendencias materialistas, ya que reconocía la prioridad de la cosa y el carácter secundario del concepto. Por supuesto, las generalizaciones aunque menos reales que los objetos particulares (y de ahí la sujeción de la teoría a la práctica en un concepto que las une conocido en la teoría marxista como *praxis*) no deja por ello de ser real en cuanto busca ser una representación aproximada (a largo plazo cada vez más aproximada a medida se desarrollan las fuerzas productivas) de la estructura general (interna y externa, métrica y topológica) común que tienen tales fenómenos naturales o sociales. Marx señaló que el nominalismo fue la primera expresión del materialismo de la Edad Media. Con todo, los nominalistas no comprendían que los conceptos generales reflejan cualidades reales de cosas que existen objetivamente y que las cosas singulares no pueden separarse de lo general, pues lo contienen en sí mismas (y esto no tiene un carácter únicamente marxista, sino que incluso el célebre formalista David Hilbert señaló, según la célebre biógrafa de matemáticos Constance Reid que "The art of doing mathematics consists in finding that special case which contains all the germs of generality"). Así, el defecto fundamental de la navaja de Ockham es el no considerar algún conjunto de restricciones que complementen al criterio de selección de la explicación basado en que sea la idea más simple. Como se señala en https://www.wikiwand.com/en/Occam%27s_razor, 
"En química, la navaja de Occam es a menudo una heurística importante al desarrollar un modelo de mecanismo de reacción (...) Aunque es útil como heurística en el desarrollo de modelos de mecanismos de reacción, se ha demostrado que falla como criterio para seleccionar entre algunos modelos publicados seleccionados (...) En este contexto, el propio Einstein expresó cautela cuando formuló la Restricción de Einstein: "Difícilmente se puede negar que el objetivo supremo de toda teoría es hacer que los elementos básicos irreductibles sean tan simples y tan pocos como sea posible sin tener que renunciar a la representación adecuada de un dato único de experiencia"."
La clave en la expresión anterior de Einstein es "sin tener que renunciar a...", lo que se cristaliza nítidamente en una frase que señala la fuente citada es atribuida a Einstein, pero no ha sido posible su verificación: "Todo debe mantenerse lo más simple posible, pero no lo más simple". Como se verifica en https://www.statisticshowto.com/parsimonious-model/, en general, existe un *trade-off* entre la bondad de ajuste de un modelo y la parsimonia: los modelos de baja parsimonia (es decir, modelos con muchos parámetros) tienden a tener un mejor ajuste que los modelos de alta parsimonia, por lo que es necesario buscar un equilibrio.

La parsimonia estadística es deseada porque un mínimo de coeficientes de regresión implica un mínimo de variables y un mínimo de estos implica un mínimo de variables explicativas, lo que puede ser útil en casos de que exista colinealidad entre las variables explicativas, así como también permite ahorrar tiempo y dinero en lo relativo a la inversión de recursos destinada al estudio, aunque no necesariamente garantice que en general (considerando el impacto posterior de las decisiones tomadas con base en el estudio y otros factores) se ahorre tiempo y dinero.

## Modelos Jerárquicos
Existen diferentes tipos de modelos jerárquicos. Los hay de diferente tipo, algunos más complejos que otros (complejidad a nivel teórico, matemático y computacional); ejemplos de tales modelos son las mixturas de probabilidad y se pueden estudiar en https://marxianstatistics.files.wordpress.com/2020/12/sobre-los-estimadores-de-bayes-el-analisis-de-grupos-y-las-mixturas-gaussianas-isadore-nabi.pdf. Aquí se tratará con modelos jerárquicos más simples, como los abordados en (Kutner, Nachtsheim, Neter & Li. p.294-305).

Como señalan los autores referidos en la p.294., los modelos de regresión polinomial tienen dos tipos básicos de usos: 1. Cuando la verdadera función de respuesta curvilínea es de hecho una función polinomial. 2. Cuando la verdadera función de respuesta curvilínea es desconocida (o compleja), pero una función polinomial es una buena aproximación a la función verdadera. El segundo tipo de uso, donde la función polinomial se emplea como una aproximación cuando se desconoce la forma de la verdadera función de respuesta curvilínea, es muy común. Puede verse como un enfoque no paramétrico para obtener información sobre la forma de la función que modela la variable de respuesta. Un peligro principal en el uso de modelos de regresión polinomial es que las extrapolaciones pueden ser peligrosas con estos modelos, especialmente en aquellos con términos de orden superior, es decir, en aquellos cuyas potencias sean iguales o mayores a 2. Los modelos de regresión polinomial pueden proporcionar buenos ajustes para los datos disponibles, pero pueden girar en direcciones inesperadas cuando se extrapolan más allá del rango de los datos.

Así, como señalan los autores referidos en la p.305, el uso de modelos polinomiales no está exento de inconvenientes. Estos modelos pueden ser más costosos en grados de libertad que los modelos no-lineales alternativos o los modelos lineales con variables transformadas. Otro inconveniente potencial es que puede existir  multicolinealidad grave incluso cuando las variables predictoras están centradas. Una alternativa al uso de variables centradas en la regresión polinomial es usar polinomios ortogonales. Los polinomios ortogonales están no-correlacionados, puesto que la ortogonalidad de sus términos implica independencia lineal entre los mismos. Algunos paquetes de computadora usan polinomios ortogonales en sus rutinas de regresión polinomial y presentan los resultados ajustados finales en términos tanto de los polinomios ortogonales como de los polinomios originales. Los polinomios ortogonales se discuten en textos especializados como (Drapper & Smith, Applied Linear Regression). A veces, se ajusta una función de respuesta cuadrática con el fin de establecer la linealidad de la función de respuesta cuando no se dispone de observaciones repetidas para probar directamente la linealidad de la función de respuesta.

## Caso de Aplicación
### 1. Conversión de Matriz de Datos a Marco de Datos
La base ´Vida.Rdata´ contiene datos para los 50 estados de los Estados Unidos. Estos datos son proporcionados por U.S. Bureau of the Census. Se busca establecer las relaciones que existen entre ciertas variables del Estado que se analice y la esperanza de vida. A continuación, se presenta una descripción de las variables que aparecen en la base en el orden en que
aparecen:

  + **esper**: esperanza de vida en años (1969-71). 
  + **pob**: población al 1 de Julio de 1975.
  + **ingre**: ingreso per capita (1974).
  + **analf**: porcentaje de la población analfabeta (1970).
  + **crim**: tasa de criminalidad por 100000 (1976).
  + **grad**: porcentaje de graduados de secundaria (1970).
  + **temp**: número promedio de días con temperatura mínima por debajo de los 32 grados (1931-1960) en la capital del estado.
  + **area**: extensión en millas cuadradas.

Debe comenzarse leyendo el archivo de datos pertinente mediante la sintaxis `load("Vida.Rdata")`. Si se observa la estructura de la base de datos, se verifica que es simplemente una matriz. Por tanto, si se utiliza la sintaxis `names(base)` no se obtiene información alguna, mientras que si se trata de llamar a alguna de las variables por su nombre, como por ejemplo `base$esper`, R informa de un error y lo mismo ocurre si se usa `attach(base)`. Esto sucede porque la estructura de datos invocada no está definida como un marco de datos o `data.frame`. Por ello, debe comenzarse por convertir dicha matriz de datos en un marco de datos o  `data.frame`y posteriormente puede verificarse si las sintaxis antes mencionadas son ahora operativas.

“`{r}
setwd(“C:/Users/User/Desktop/Carpeta de Estudio/Mis Códigos en R”)
load(“Vida.Rdata”)
names(base)
base=data.frame(base)
names(base)
“`

### 2. Obtención de todos los modelos posibles dado un determinado conjunto de variables dentro del marco de datos
Pueden obtenerse los $R^2$ ajustados de todos los modelos posibles con las 7 variables disponibles. Para hacerlo, puede construirse primero un objeto con todos los predictores y llamarlo **X** para posteriormente construir un objeto llamado **sel** aplicando la función `leaps` (perteneciente a la librería con el mismo nombre) de la siguiente forma: `sel=leaps(x,y, method="adjr2")`. Nótese que el objeto construido mediante la sintaxis `leaps`, es decir, **sel**, es una lista con 4 componentes cuyos nombres pueden obtenerse con la sintaxis `names(sel)`.  Así, puede llamarse a cada uno de tales componentes por separado usando el signo `$`, por ejemplo, `sel$which`. Antes de proceder a realizar los cálculos definidos antes, se estudiará a nivel general la sintaxis `leaps`.

La sintaxis `leaps` usa un algoritmo eficiente (parsimonioso) de ramificación y cota para realizar una búsqueda exhaustiva de los mejores subconjuntos de las variables contenidas en el marco de datos para predecir y realizar análisis de regresión lineal; este tipo de algoritmo, según https://www.wikiwand.com/en/Branch_and_bound, es un paradigma de diseño de algoritmos para problemas de optimización discreta y combinatoria, así como optimización matemática. Un algoritmo de ramificación y acotación consiste en una enumeración sistemática de soluciones candidatas mediante la búsqueda en el espacio de estados: se piensa que el conjunto de soluciones candidatas forma un árbol enraizado con el conjunto completo en la raíz; "si las cosas fuesen tal y como se presentan ante nuestros ojos, la ciencia entera sobraría" dijo Marx alguna vez. El algoritmo explora las ramas del árbol representado por los subconjuntos del conjunto de soluciones posibles al problema de optimización. Antes de enumerar las soluciones candidatas de una rama, el algoritmo sigue el siguiente proceso descarte de ramas: la rama se compara con los límites estimados superior e inferior de la solución óptima y se descarta (la rama en su conjunto) si no ella puede producir una solución mejor que la mejor encontrada hasta ahora por el algoritmo (véase https://cran.r-project.org/web/packages/leaps/leaps.pdf, p.1). Como se señala en la documentación antes citada, dado que el algoritmo devuelve el mejor modelo de cada tamaño (aquí se refiere a los modelos estadísticamente más robustos según un número de variables fijo que se considere) no importa si desea utilizar algún criterio de información (como el AIC, BIC, CIC o DIC). El algoritmo depende de una estimación eficiente de los límites superior e inferior de las regiones/ramas del espacio de búsqueda. Si no hay límites disponibles, el algoritmo degenera en una búsqueda exhaustiva.

A pesar de lo señalado relativo a que la búsqueda realiza por `leaps` es independiente de cualquier criterio de información utilizado, puede omitirse este hecho con la finalidad de que sea posible incorporar a esta práctica el estudio de los criterios de información. A continuación, se presenta una lista de los mejores modelos siguiendo el criterio de $R^2$ ajustado más alto, lo que se indica al interior de la sintaxis `leaps` mediante methods="adjr2".

“`
{r}
attach(base)
library(leaps)
X=cbind(pop,ingre,analf,crim,grad,temp,area)
sel=leaps(X,esper, method=”adjr2″)
sel
names(sel)
sel$adjr2
sel$which
sel$label
sel$size
“`

Adicionalmente, es posible construir una matriz, almacenarla bajo el nombre **mat** con el contenido de las filas `sel$which` y `sel$adjr2`, agregando un contador para identificar cada modelo mediante la sintaxis `cbind`. La estructura de datos **mat** contiene todos los diferentes modelos de regresión lineal (a diferentes tamaños de los mismos) mediante la sintaxis `leaps` para la base de datos utilizada.

“`{r}
k=nrow(sel$which)
k
mat=data.frame(cbind(n=1:k,sel$which,round(sel$adjr2,2)))
mat

head(mat[order(-mat$V9),],10)
“`

Así, puede construirse un subconjunto de **mat** que contenga sólo los modelos cuyo coeficiente de determinación ajustado sea mayor o igual que 0.68.

“`{r}
subcon=subset(mat,sel$adjr2>=0.68)
head(subcon[order(-subcon$V9),],10)
“`

Nótese que los cuatro modelos con el $R^2$ ajustado más alto son los modelos 28, 38, 39, y 40, cuyo tamaño oscila entre 4 o 5 variables explicativas; si se utiliza la sintaxis `print` es posible verificar que en las filas está el modelo como tal (si la variable se toma en consideración tiene asignado un "1", mientras que en caso contrario un "0"), mientras que en las columnas se localizan las posibles variables a utilizar.

### 3. Estadístico de Mallows
Como se puede verificar en https://support.minitab.com/es-mx/minitab/18/help-and-how-to/modeling-statistics/regression/supporting-topics/goodness-of-fit-statistics/what-is-mallows-cp/, el Estadístico $C_p$ de Mallows sirve como ayuda para elegir entre múltiple modelos de regresión. Este estadístico ayuda a alcanzar un equilibrio importante con el número de predictores en el modelo. El $C_p$ de Mallows compara la precisión y el sesgo del modelo completo con modelos que incluyen un subconjunto de los predictores. Por lo general, deben buscarse modelos donde el valor del $C_p$ de Mallows sea pequeño y esté cercano al número de predictores del modelo más la constante $p$. Un valor pequeño del $C_p$ de Mallows indica que el modelo es relativamente preciso (tiene una varianza pequeña) para estimar los coeficientes de regresión verdaderos y pronosticar futuras respuestas. Un valor del $C_p$ de Mallows que esté cerca del número de predictores más la constante indica que, relativamente, el modelo no presenta sesgo en la estimación de los verdaderos coeficientes de regresión y el pronóstico de respuestas futuras. Los modelos con falta de ajuste y sesgo tienen valores de $C_p$ de Mallows más grandes que p. A continuación se presenta un ejemplo.
#Figura 1: Ejemplo del uso del Estadístico de Mallows para evaluar un modelo #Fuente: https://support.minitab.com/es-mx/minitab/18/help-and-how-to/modeling-statistics/regression/supporting-topics/goodness-of-fit-statistics/what-is-mallows-cp/
Así, para el ejemplo aquí utilizado (que responde a la base de datos antes especificada) puede obtenerse el estadístico $C_p$ de Mallows para todos los modelos posibles con las 7 variables disponibles. Para ello puede usarse la función `leaps`; nótese que no es necesario indicarle a R que obtenga el estadístico de Mallows mediante la sintaxis `method=Cp` puesto que este método es el establecido por defecto en la programación de R, por lo que en el escenario en que no se indique un "method" en específico el programa utilizará por defecto el criterio del estadístico de Mallows.

“`{r}
sel = leaps(X,esper)
names(sel)
sel$Cp
“`

Complementariamente, puede construirse una nueva matriz **mat** que en lugar de los criterios `sel$which` y `sel$adjr2` siga los criterios `sel$which`, `sel$Cp` y `sel$size`, agregando al igual que antes un contador para identificar cada modelo. Esto implicará la sobreeescritura de la matriz **mat**. Pueden seleccionarse con antelación únicamente las filas de **mat** que se corresponden con los modelos seleccionados en el punto anterior y comparar la columna del $C_p$ con la columna $size$ que corresponde al número de coeficientes (p). En cada caso puede determinarse si el modelo es sesgado o no, sin perder de vista que un modelo es sesgado según el estadístico de Mallows si $C_p>p$. De lo anterior se desprende que se está buscando un conjunto de modelos insesgados para los cuales se verifica la condición $C_p<p$ antes mencionada.

“`{r}
mat=data.frame(cbind(1:k,sel$which,round(sel$Cp,2),sel$size))
colnames(mat)[9]<-“CP”
colnames(mat)[10]<-“p”
mat[c(28,38,39,40),]
“`

Como puede observarse, en todos los modelos arrojados por la sintaxis `leaps` cumplen con la condición antes especificada, por lo que es posible afirmar que, sobre todo respecto a los modelos 28, 38, 39 y 40, que son buenos candidatos para ser utilizados (los mejores modelos son los mismos cuatro que en el literal anterior).

### 4. Suma de Cuadrados Residuales de Predicción (PRESS)
####4.1. Aproximación Gráfica
Como se señala en (https://pj.freefaculty.org/guides/stat/Regression/RegressionDiagnostics/OlsHatMatrix.pdf, p.9), la PRESS no es otra cosa que el error de estimación correspondiente a un valor particular de la variable condicional $Y$; la estimación de PRESS a veces es útil como una medida resumida de la capacidad de un modelo para predecir nuevas observaciones. Las líneas de comando presentadas a continuación expresan la configuración de la función personalizada `plot.press`, que es una función empírica que se aproxima gráficamente a los PRESS mediante el siguiente procedimiento:

a) Crea un modelo solamente con la variable **ingre**.

b) Toma el Estado i-ésimo y crea otro modelo basado en los demás Estados (excepto el i-ésimo).

c) Grafica las dos líneas de regresión y marca la observación del Estado i-ésimo en rojo para que se observe como se diferencian las dos líneas a la altura del ingreso de ese Estado.

d) Estima el promedio de la esperanza de vida para el i-ésimo Estado usando las dos ecuaciones.

“`{r}
plot.press=function(i){
mod =lm(esper~ingre,base)
mod1=lm(esper ~ ingre,base[-i,])

plot(base$ingre,base$esper,pch=18,xlab=”ingreso”,ylab=”esperanza”)
points(base$ingre[i],base$esper[i],pch=18,col=2)
abline(mod)
abline(mod1,lty=2,col=2)
abline(v=base$ingre[i],col=4,lty=2)
legend(3000,max(esper),c(“completo”,paste(“falta el “,i,sep=””)),col=c(1,2),lty=c(1,2),bty=”n”)

yi=predict(mod,data.frame(ingre=base$ingre[i]))
yii=predict(mod1,data.frame(ingre=base$ingre[i]))
res=c(yi,yii)
names(res)=c(“y_i”,”y_i(i)”)
return(round(res,2))
}
“`

Así, puede usarse la función `plot.press` con diferentes estados, por ejemplo, con Alaska (i=2) o algún otro.

“`{r}
plot.press(2)
plot.press(15)
plot.press(10)
“`

#### 4.2.  Aproximación Inferencial vía Residuos Estandarizados
Como señala https://www.statisticshowto.com/what-is-a-standardized-residuals/, los residuos estandarizados permiten normalizar el conjunto de datos de estudio en el contexto del análisis de regresión y de la ejecución de pruebas de hipótesis chi-cuadrado $χ^2$. Un residuo estandarizado es una razón: la diferencia entre el valor observado y el valor esperado (condicional, a posteriori) sobre la desviación estándar del valor esperado en la prueba de chi-cuadrado.

Como se señala en https://online.stat.psu.edu/stat501/lesson/11/11.4, existen varias medidas para identificar valores extremos de X (observaciones de alto $leverage$ o $influencia$) y valores de Y inusuales (valores atípicos). Al intentar identificar valores atípicos, un problema que puede surgir es cuando existe un valor atípico potencial que influye en el modelo de regresión hasta tal punto que la función de regresión estimada se "arrastrada" hacia el valor atípico potencial, de modo que no se marca como un valor atípico utilizando el criterio usual de residuos estandarizados. Para abordar este problema, los residuos eliminados ofrecen un criterio alternativo para identificar valores atípicos. La idea básica de esto es eliminar las observaciones una a la vez, reajustando cada vez el modelo de regresión en las n – 1 observaciones restantes. Luego, se comparan los valores de respuesta observados con sus valores ajustados basados en los modelos con la i-ésima observación eliminada. Esto produce residuos eliminados (no estandarizados). La estandarización de los residuos eliminados produce residuos eliminados studentizados, como se verá teóricamente a continuación.

Formalmente, es un resultado conocido del álgebra lineal que $y=Xβ+ε$, en donde $X_{n×p}$, $\hat{β}=(X'X)^{-1}X-y$ y $\hat{y}=X\hat{β}=X(X'X)^{-1}X'y=Hy$, donde $H=X(X'X)^{-1}X'$ es la matriz conocida como *matriz sombrero*. Los residuos son $e=y-\hat{y}=y-Hy=(I-H)y$. Adicionalmente, se sabe que la varianza poblacional $σ^2$ es desconocida y puede estimarse mediante la suma de cuadrados medios del error $MSE$. Así, los residuos pueden ser expresados mediante la ecuación $e_i^*=\frac{e_i}{\sqrt{MSE}}$ y se conocen como *residuos semistudentizados*. Puesto que la varianza de los residuos depende tanto de $σ^2$ como de $X$, la varianza estimada es $\hat{V}(e_i)=MSE(1-h_{ii})$, donde $h_{ii}$ es el $i$-ésimo elemento de la diagonal principal de la matriz sombrero. Así, los residuos estandarizados, también conocidos como *residuos internamente studentizados*, tienen la forma $r_i=\frac{e_i}{\sqrt{MSE(1-h_{ii})}}$. Sin embargo, se sabe que es imposible que un residuo individual y el MSE (que es la varianza del conjunto de residuos) no estén correlacionados (existe dependencia lineal) y, por consiguiente, es imposible que $r_i$ siga una distribución t de Student. Lo anterior representa un impedimento para realizar pruebas de significancia estadística de los coeficientes de regresión, puesto que la distribución t es junto con la F los dos tipos de distribución más utilizados (y no sólo en el contexto de regresión) para realizar pruebas de hipótesis, dentro de las cuales las pruebas de significancia de coeficientes son un tipo de ellas. La solución a la problemática antes descrita consiste en eliminar la $i$-ésima observación, ajustar la función de regresión a las $n-1$ observaciones restantes y luego obtener nuevas $\hat{y}$'s que pueden ser denotadas como $\hat{y}_{i(i)}$. La diferencia $d_i=y_i-\hat{y}_{i(i)}$ es llamada *residuo eliminado*. Una expresión equivalente que no requiere recomputación es: $d_i=\frac{e_i}{1-h_{ii}}$.
Los residuos eliminados expresados de la forma anterior son la base para encontrar los residuos conocidos como *residuos eliminados studentizados* o *resiudos studentizados externamente*, los cuales adoptan la forma $t_i=\frac{d_i}{\sqrt{{\frac{MSE}{1-h_{ii}}}}}\sim{\sf t_{n-p-1}}$ o $t_i=\frac{e_i}{\sqrt{{{MSE(1-h_{ii})}}}}\sim{\sf t_{n-p-1}}$; véase https://stats.stackexchange.com/questions/99717/whats-the-difference-between-standardization-and-studentization/99723.

En lo que a la estimación de los diferentes tipos de residuos se refiere, debe comenzarse por obtener las **influencias** o **leverage** del modelo usando `hatvalues(mod)`; debe recordarse que las influencias son utilizadas para determinar que tanto impacto tiene una observación sobre los resultados de la regresión. Precisamente el análisis descriptivo anterior, en el que en una de las rectas de regresión (de las dos que aparecen en cada una de las cincuenta gráficas posibles) se omitía un Estado, tenía como finalidad verificar cuánto impactaba su ausencia (la del Estado sustraido) en la estimación realizada sobre la media condicional de $Y$. Al utilizar la sintaxis "mod=lm(esper~ingre,base)" se está planteando un modelo con la totalidad de Estados, del cual se calculan sus valores sombrero mediante la sintaxis `h = hatvalues(mod)`, sus residuos mediante `r=mod$res`, se estima el residuo de un modelo en el que no se considera el Estado i-ésimo en el análisis (en este caso Alaska) mediante `pred.r = r[2]/(1-h[2])` y, finalmente, la validez estadística de la estimación `pred.r = r[2]/(1-h[2])` se determina contrastándola con respecto al resultado de restarle a la media estimada $\hat{Y}_2$ (porque en este caso para Alaska, que ocupa la fila dos en la base de datos, que es una base de datos de corte transversal) la media estimada $\hat{Y}$ del modelo que no considera al i-ésimo Estado (aquí es Alaska).

“`{r}
mod=lm(esper~ingre,base)
h = hatvalues(mod)
r=mod$res
pred.r = r[2]/(1-h[2])
round(pred.r,2)

esper[2]-73.07

plot.press(2)
“`

Finalmente, puede obtenerse la Suma de Cuadrados Residuales de Predicción $PRESS$ utilizando los residuos eliminados globales (no únicamente para el Estado de Alaska) mediante la siguiente ecuación: $$PRESS=\sum{( \frac{r_i}{1-h_i}} )^2$$.

“`{r}
d=r/(1-h)
press=t(d)%*%d
round(press,2)
“`

### 5. Comparación de Modelos vía $PRESS$
Es posible comparar el modelo que únicamente contempla la variable ingreso **ingre** con el que se obtiene en un modelo que contenga en su lugar la cantidad de población del Estado **pop** y su tasa de criminalidad **crim**. Esto con el fin de verificar cuál de los dos modelos es más sensible a valores extremos de X al realizar estimaciones de la media condicional $\hat{Y}$ de la variable *esperanza de vida*.

“`{r}
mod=lm(esper~ingre,base)
r=mod$res
h=hatvalues(mod)
d=r/(1-h)
press=t(d)%*%d
round(press,2)
“`

“`{r}
mod2= lm(esper~pop+crim,base)
r=mod2$res
h=hatvalues(mod2)
d=r/(1-h)
press=t(d)%*%d
round(press,2)
“`

Se observa que el modelo `mod` es más sensible, puesto que su PRESS es más alto (89.32).

Debe decirse que la matriz "d" es conocida también como *matriz de Gramm*, por lo que su determinante es igual al producto de sí y su transpuesta, es decir, `t(d)%*%d`. Como se verifica en https://www.wikiwand.com/en/Gram_matrix, la matriz de Gramm cuyos elementos pertenecen a los reales tiene la característica de ser simétrica (matriz cuadrada que es igual a su transpuesta); la matriz de Gramm de cualquier base ortonormal (conjunto de vectores linealmente independientes que generan un espacio lineal -conocido como *span lineal*- denso dentro del espacio de referencia) es una matriz identidad.

El modelo anterior puede expandirse en predictores considerando ahora población **pop**, nivel de ingreso **ingre**, porcentaje de población analfebeta **analf** y la extensión en millas cuadradas **area** para explicar la esperanza de vida (medida en años).

“`{r}
mod0= lm(esper~pop+ingre+analf+area,base)
r=mod0$res
h=hatvalues(mod0)
d=r/(1-h)
press=t(d)%*%d
round(press,2)
“`

El modelo `mod0` es aún más sensible a los datos provistos por el Estado de Alaska que el modelo `mod` 

Así como se amplió la cantidad de variables en consideración al pasar del modelo `mod` al modelo `mod0`, también podría realizarse el procedimiento anterior para un modelo que considere la totalidad de las variables disponibles. Una forma para evitar escribir todas las variable en es usar un punto después de **~**, además de indicar de cuál base provienen los datos. De esta forma R entiende que debe considerar todas las variables de esa base como predictores, con excepción de la variable que se indica como respuesta.

“`{r}
mod_comp= lm(esper~., base)
r=mod_comp$res
h=hatvalues(mod_comp)
d=r/(1-h)
press=t(d)%*%d
round(press,2)
“`

Como se verifica de las pruebas antes realizadas, el modelo completo `mod_comp` tiene una $PRESS$ menor (más bajo) que el modelo que utiliza 4 predictores (*i.e.*, `mod0`) para explicar la media condicional de la esperanza de vida, lo que indica menor *leverage* en relación al Estado de Alaska.

### 6. Construcción Escalonada de Modelos de Predicción
#### 6.1. Aspectos Teóricos Generales
Como se conoce de los cursos de álgebra lineal, el mecanismo de *eliminación gaussiana* o *reducción de por filas*, es un proceso secuencial de *operaciones elementales entre filas* realizadas sobre la correspondiente matriz de coeficientes con la finalidad de estimar el rango de la matriz, el determinante de una matriz cuadrada y la inversa de una matriz invertible, en cuanto este mecanismo prepara las condiciones para resolver el sistema de ecuaciones; sobre los orígenes históricos de este mecanismo debe decirse que, como se señala en https://en.wikipedia.org/wiki/Gaussian_elimination, casos particulares de este método se conocían descubiertos por matemáticos chinos (sin prueba formal) en el año 179 de la era común C.E. (que es una forma no-cristiana de expresar la era que inicia en el año en que se supone nació Jesucristo).

Los mecanismos matemáticos anteriores, utilizados en el procedimiento estadístico de selección de los predictores de la media condicional de alguna variable de respuesta, se conocen como *regresión escalonada*. Como se señala en https://en.wikipedia.org/wiki/Stepwise_regression, la regresión escalonada es un método de ajuste de modelos de regresión en el que la elección de las variables predictivas se realiza mediante un procedimiento automático (...) En cada paso, se considera una variable para sumar o restar del conjunto de variables explicativas basado en algún criterio preespecificado. Por lo general, esto toma la forma de una secuencia hacia adelante, hacia atrás o combinada de pruebas F o pruebas t. La práctica frecuente de ajustar el modelo final seleccionado seguido de reportar estimaciones e intervalos de confianza sin ajustarlos para tener en cuenta el proceso de construcción del modelo ha llevado a llamadas a dejar de usar la construcción escalonada de modelos por completo (...) o al menos asegurarse de que en el modelo la incertidumbre se refleja correctamente (...) Las alternativas incluyen otras técnicas de selección de modelos, como $R^2$ ajustado, ek criterio de información de Akaike, el criterio de información bayesiano, el $C_p$ de Mallows, la $PRESS$ o la *tasa de falso descubrimiento*.

La construcción escalonada de un modelo puede suscitarse fundamentalmente de tres maneras:

1.*Selección hacia adelante*, que implica comenzar sin variables en el modelo, comprobar lo que ocurre al adicionar cada variable utilizando un criterio de ajuste del modelo elegido, agregando la variable (si la hubiese) cuya inclusión permita la mejora estadísticamente más significativa del ajuste y repetir este proceso hasta ningún predictor mejore el modelo de manera estadísticamente significativa. Véase https://www.analyticsvidhya.com/blog/2021/04/forward-feature-selection-and-its-implementation/

2. *Eliminación hacia atrás*, que implica comenzar con todas las variables candidatas, probar la eliminación de cada variable utilizando un criterio de ajuste del modelo elegido, eliminar la variable (si la hubiese) cuya pérdida produce el deterioro más insignificante estadísticamente del ajuste del modelo, y repetir este proceso hasta que no se pueden eliminar más variables sin una pérdida de ajuste estadísticamente insignificante. Véase https://www.analyticsvidhya.com/blog/2021/04/backward-feature-elimination-and-its-implementation/?utm_source=blog&utm_medium=Forward_Feature_Elimination.

3. *Eliminación bidireccional*, una combinación de 1 y 2, probando en cada paso las variables que se incluirán o excluirán.

#### 6.2. Método de Eliminación Hacia Atrás en R 
##### 6.2.1. Eliminación Hacia Atrás con Probabilidad F
Para eliminar variables secuencialmente se usa la función `drop1`, que proporciona el estadístico F correspondiente a la eliminación de una única variable explicativa; el estadístico F arrojado por esta sintaxis debe interpretarse como la probabilidad de materialización de la probabilidad de rechazar $H_0:β_1=B_2=⋯=B_i=0$ siendo esta verdadera. A causa de lo anterior, un valor F alto indica que la probabilidad de la materialización antes descrita es alta y, ante semejante riesgo, la decisión racional es fallar en rechazar $H_0$ sobre la significancia estadística nula global de los coeficientes de regresión. Fallar en rechazar $H_0$ implica que probabilísticamente hablando no existen consecuencias relevantes (a nivel de capacidad predictiva) si se elimina el modelo en cuestión, por lo que un F mayor que el nivel de significancia $α$ preestablecido (que es la probabilidad de cometer error tipo I, fijada por el investigador con base a la información histórica y a criterios de experto experimentado) significa que ese coeficiente de regresión no es estadísticamente relevante y puede eliminarse.

Puede escribirse el modelo completo (con los 7 predictores) y luego utilizar `drop1(mod,test="F")` para verificar cuál es la primera variable que se recomienda eliminar tras el proceso antes descrito. Como se adelantó, se deben eliminar aquellos predictores cuyo valor de probabilidad F sea más alto.  

“`{r}
mod3=lm(esper~., base)
moda=mod3
drop1(moda,test=”F”)
“`

Si se comparan los resultados de la sintaxis `drop1` con los de `summary`, se puede verificar que las probabilidades F y t coinciden. Esto sucede en este ejemplo porque no hay variables categóricas con más de 2 categorías; sin embargo, cuando se cuenta con variables categóricas con más de 2 categorías, no se debe usar `summary` porque en tal caso las probabilidades F y t no son equivalentes.

“`{r}
summary(moda)
“`

De los resultados anteriores se desprende que el primer predictor a ser eliminado es la variable **area**, pues tiene la probabilidad F más alta. Para materializar la eliminación se puede actualizar el modelo anterior mediante `moda=update(moda,.~.-area)`.

“`{r}
moda=update(moda,.~.-area)
drop1(moda,test=”F”)
“`

Y así puede continuarse hasta que, por ejemplo, todas las probabilidades sean menores a 0.15 (o a algún valor$α$ preestablecido de la forma antes descrita).

“`{r}
moda=update(moda,.~.-analf)
drop1(moda,test=”F”)
moda=update(moda,.~.-ingre)
drop1(moda,test=”F”)
“`

Finalmente, se obtiene que el modelo sugerido contempla las variables **pop**, **crim**, **grad** y **temp**.

##### 6.2.2. Eliminación Hacia Atrás con AIC
Adicionalmente, en lugar de usar el criterio de la probabilidad F se pueden usar criterios de información. Para usar el criterio de Akaike (AIC) simplemente no se indica nada en `test`, pues el AIC es el criterio por defecto que utiliza `drop1`. En este caso, la columna de AIC indica el valor del AIC que se obtendría si se elimina esa variable. Puesto que el objetivo es aumentar el AIC (porque eso haría al predictor candidato de ser eliminado), entonces se elimina la variable que más disminuye el AIC, generando luego un nuevo modelo (con las variables que menos disminuyen el AIC) que se compara con el modelo anterior, y así sucesivamente, hasta que la eliminación de cualquier variable aumenta el AIC con respecto al modelo anterior en lugar de disminuirlo, puesto que esta es la señal que en términos de robustez estadística del modelo no es recomendable eliminar más predictores.

“`{r}
moda=mod3
drop1(moda)
moda=update(moda,.~.-area)
drop1(moda)
moda=update(moda,.~.-analf)
drop1(moda)
moda=update(moda,.~.-ingre)
drop1(moda)
“`

El procedimiento antes descrito se puede realizar de forma automática con la sintaxis `step` mediante`step(mod)`. Tras ello, puede almacenarse el resultado en una estructura de datos (aquí llamada "mod4"#") y aplicar `summary` sobre dicho objeto.

“`{r}
mod4=step(mod3)
summary(mod4)
“`

##### 6.2.2. Eliminación Hacia Atrás con BIC
###### 6.2.2.1. Aspectos Teóricos Relevantes del BIC
Si en lugar del criterio AIC se desease utilizar el criterio bayesiano de información (BIC) se debe indicar en la sintaxis `step` mediante `k=log(n)`. Debe agregarse que, como se señala en (Bishop, Christopher M. Pattern Recognition and Machine Learning. 2006, p. 217), el criterio bayesiano de información penaliza la complejidad del modelo y es el criterio expuesto por Bishop en el lugar referido el que muestra la penalización que el BIC ejerce sobre la complejidad del modelo y que se conoce como *factor de Occam*. 

“`{r}
knitr::include_graphics(“FOTO4.JPG”)
“`

#Figura 2: Evaluación de la log-verosimilitud empleando parámetros optimizados #Fuente: Bishop, Christopher M. Pattern Recognition and Machine Learning. 2006, p. 216-17.
Debe decirse sobre el factor de Occam que, como puede verificarse en [David J. Spiegelhalter, Nicola G. Best, Bradley P. Carlin & Angelika Van Der Linde. Bayesian measures of model complexity and fit. Journal of Royal Statistical Society, Series B (Statistical Methodology); https://rss.onlinelibrary.wiley.com/doi/pdf/10.1111/1467-9868.00353] y en (van der Linde, Angelika. A Bayesian view of model complexity. Statistica Neerlandica xx, year xx-xx, special issue: All Models Are Wrong...; https://statmodeling.stat.columbia.edu/wp-content/uploads/2013/08/snavdlmc.pdf), no existe una definición analítica para el mismo, *i.e.*, una definición que pueda ser sustentada lógicamente desde algún marco teórico en congruencia clara y directa con un marco matemático autodemostrable dentro de teoría de conjuntos ZF-C (Zermelo-Fraenkel con Axioma de Elección) que la modele.

En este sentido, la investigación de Spiegelhalter et al es una de las investigaciones más importantes de al menos las últimas dos décadas a nivel de la teoría de las probabilidades y su importancia es aún mayor si el marco de referencia es únicamente la teoría bayesiana de probabilidades. En síntesis, los autores y autora de la investigación concluyen que la medida de complejidad bayesiana (que es la estructura matemática que aparece en la obra citada de Christopher Bishop) tiene como trasfondo común con el criterio DIC (que es la versión generalizada del AIC, de naturaleza teórica frecuentista, que tiene su propia penalización de la complejidad del modelo y por consiguiente su propia medición de dicha complejidad) la teoría de la información (rama de la teoría de las probabilidades que versa sobre las estructuras matemáticas que rigen la transmisión y el procesamiento de la información y se ocupa de la medición de la información y de la representación de la misma, así como también de la capacidad de los sistemas de comunicación para transmitir y procesar información; véase https://es.wikipedia.org/wiki/Teor%C3%ADa_de_la_informaci%C3%B3n), que el DIC y el BIC tienen una justificación lógica similar aunque el DIC tiene una campo de aplicación más amplio. Adicionalmente, se señala que la metodología de medición de complejidad bayesiana que ellos proponen es aplicable a toda la clase de modelos y que únicamente requiere de un trabajo analítico "despreciable" (p. 613) relativo a la configuración de un muestreo del tipo Monte Carlo basado en cadenas de Markov. Además, existe un problema señalado por los autores y autora relativo a que es difícil explicar si las diferencias entre los criterios de medición de complejidad del BIC y del DIC son realmente diferentes en términos estadísticos, puesto que es aún más difícil determinar el error del DIC en pruebas Monte Carlo (para ello se cita una investigación previa que señala esta dificultad). La publicación de este documento de investigación generó la apertura de un debate alrededor del mismo, que contó con la participación de S. Brooks (University of Cambridge), Jim Smith (University of Warwick), Aki Vehtari (Helsinki University of Technology), Martyn Plummer (International Agency of Research on Cancer, Lyon), Mervyn Stone (University College London), Christian P. Robert (Université Paris Dauphine) y D. M. Titterington (University of Glasgow), el mismísimo J. A. Nelder en persona (Impercial College of Science, Techonology and Medicine, London), Anthony Atkinson (London School of Economics and Political Science), A. P. David (University College London), José M. Bernardo (Universitat de València), Sujit K. Sahu (University of Southampton), Sylvia Richardson (Imperial College School of Medicine, London), Peter Green (University of Bristol), Kenneth P. Burnham (US Geological Survey and Colorado State University, Fort Collins), María Delorio (University of Oxford) y Christian P. Robert (Université Paris Dauphine), David Draper (University of California, Santa Cruz), Alan E. Gelfand (Duke University Durkham) y Matilde Travisani (University of Trieste), Jim Hodges (University of Minesota, Minneapolis), Youngjo Lee (Seoul National University), Xavier de Luna (Uméa University) y, finalmente, Xiao-Li Meng (Harvard University, University of Chicago); tremendo crossover, mucho mejor que *Crisis en Tierras Infinitas (1985-86)*... palabras mayores. Los posicionamientos de los autores y autoras participantes son diversas y profundas, sin embargo, se hará una recapitulación de aquellos que señalen debilidades la medición bayesiana de complejidad de un modelo estadístico.

Brooks (p. 616-18) plantea que la investigación (como casi toda buena investigación) deja preguntas abiertas, específicamente él señala que la ecuación 9 de la página 587 utiliza para calcular dicha complejidad el valor esperado, pero ¿por qué no la moda o la mediana?, ¿cuál es la justificación teórica de ello?, y de ello se deriva también ¿cómo se debe decidir entonces que el parámetro estimado debe ser la media, la moda o la mediana?, lo cual es relevante en cuanto podría conducir a diferencias importantes con el DIC; finalmente, ¿cómo se pueden ser comparables el análisis del modelo bajo el DIC con el análisis del modelo bajo las probabilidades posteriores (enfoque bayesiano) y por qué difieren?, ¿pueden ambas ser "correctas" de alguna manera significativa?

Por su parte, Jim Smith (p. 619-20) señala que no encontró errores técnicos (*i.e.*, matemáticos), pero que encontró cuatro problemas fundacionales. El primero que señala es que las implicaciones predictivas de todas las configuraciones del prior relativas a las variaciones en los ejemplos resueltos en la Sección 8 son increíbles (no en un sentido que podría considerarse positivo), puesto que según Smith no representan juicios de expertos cuidadosamente obtenidos, sino las opiniones de un usuario de software vacío. También señala que, al principio de la Sección 1, los autores afirman que quieren identificar modelos sucintos que parecen describir la información [¿acerca de valores de parámetros "verdaderos" incorrectos (ver Sección 2.2)?] en los datos con precisión, sin embargo, señala también que en un análisis bayesiano, la separación entre la información de los datos y el prior es artificial e inapropiada; señala que "Un análisis bayesiano en nombre de un experto en auditoría remota (Smith, 1996) podría requerir la selección de un prior que sea robusto dentro de una clase de creencias de diferentes expertos (por ejemplo, Pericchi y Walley (1991)). A veces, los prior predeterminados pueden justificarse para modelos simples. Incluso entonces, los modelos dentro de una clase de selección deben tener parametrizaciones compatibles: ver Moreno et al. (1998). Sin embargo, en los ejemplos en los que "el número de parámetros supera en número a las observaciones", afirman que sus enfoques de enfoque, es poco probable los prior predeterminados (por defecto) muestren alguna robustez (estadística). En particular, fuera del dominio de la estimación local vaga o de la estimación de la varianza de separación (discutida en la Sección 4), aparentemente los antecedentes por defecto pueden tener una fuerte influencia en las implicaciones del modelo y, por lo tanto, en la selección.", de lo cual se deriva una razonable insatisfacción ante la expresión la afirmación de los autores y autora sobre la baja probabilidad de que los prior muestren robustez.

Martyn Plummer (p. 621) señala lo que a su juicio son debilidades en la derivación heurística del DIC y de ello se deriva su señalamiento de sustento formal ;como señalan (Rosental & Iudin. Diccionario Filosófico. Editorial Tecolut, 1971. p. 215-216),
en términos históricos la palabra "heurística" proviene del griego εὑρίσκω, que significa "discuto". Es el arte de sostener una discusión y floreció sobre todo entre los sofistas de la antigua Grecia. Surgida como medio de buscar la verdad a través de la polémica, se escindió pronto en dialéctica y sofística. Sócrates, con su método, desarrolló la primera. En cambio, la sofística, tendiente sólo a alcanzar la victoria sobre el contrincante en la discusión, redujo la heurística a una suma de procedimientos que podían aplicarse con el mismo éxito tanto para demostrar una aseveración, cualquiera que fuese, como para refutarla. De ahí que ya Aristóteles no estableciera ninguna diferencia entre heurística y sofística. En la actualidad, al hablar de métodos heurísticos se hace referencia a una especie de atajos para las derivaciones rigurosas que implican mayor costo computacional, por lo que su carácter de verdad es siempre de corto plazo (provisional).

Mervyn Stone (p. 621) señala que la investigación de 2002 "bastante económico" en lo relativo a la *verdad fundamental* (véase https://marxianstatistics.files.wordpress.com/2020/12/sobre-los-estimadores-de-bayes-el-analisis-de-grupos-y-las-mixturas-gaussianas-isadore-nabi.pdf, p. 43-44), que si la sección 7.3 pudiera desarrollarse rigurosamente (puesto que le parece gnoseológicamente cuestionable el uso de $E_Y$), "(...) otra conexión (a través de la ecuación $(33)$) podría ser que $DIC ≈ −2A$. Pero, dado que la sección 7.3 invoca el supuesto de "buen modelo" y pequeños $|\hat{θ}-θ|$ para la expansión de la serie de Taylor (es decir, $n$ grande), tal conexión sería tan artificial como la de $A$ con el criterio de información de Akaike: ¿por qué no seguir con la forma prístina (hoy en día calculable) de $A$, que no necesita $n$ grande o verdad? , ¿y cuál acomoda la estimación de θ en el nivel de independencia de un modelo bayesiano jerárquico? Si la sensibilidad del logaritmo a probabilidades insignificantes es objetable, los bayesianos deberían estar felices de sustituirlo por una medida subjetivamente preferible de éxito predictivo." Es imposible cuestionar a Stone en cuanto a que, dado el enseñoramiento que en la teoría bayesiana de probabilidades tiene la escuela bayesiana subjetiva, el promedio del gremio bayesiano estaría filosóficamente satisfecha con renunciar a elementos objetivos (en este caso son requerimientos preestablecidos por la teoría del aprendizaje estadístico que condicionan la validez gnoseológica del modelo propuesto como un todo, como una muestra grande y/o una verdad fundamental) si representan un punto de discordia y pueden ser sustituidos por algún criterio de decisión que pueda ser determinado; que en paz descanse su alma https://www.ucl.ac.uk/statistics/sites/statistics/files/meryvn-stone-obituary.pdf.

Christian P. Robert y D. M. Titterington (p. 621) señalan que la estructura matemática planteada por los autores de la investigación para determinar la complejidad de un modelo desde la perspectiva bayesiana parecería hacer un uso duplicado (repetido en dos ocasiones) del conjunto de datos, la primera vez lo hacen para determinar la distribución posterior y la segunda para calcular la verosimilitud observada (o verosimilitud a priori, sin considerar información adicional). Este uso duplicado del conjunto de datos puede conducir a un sobreajuste del modelo; señalan que este tipo específico de problemática surgió antes en la investigación de (Aitkin, 1991).

Seguramente el invitado más célebre entre todos los que asistieron a este maravilloso coloquio académico fue John Nelder, padre de los modelos lineales generalizados. Antes de exponer su planteamiento, deben introducirse algunas cuestiones. En primer lugar, el *escape de amoníaco* en aplicaciones industriales es a lo que los autores se refieren (y se refirará Nelder) como *stack loss* (p. 609). En segundo lugar, la tabla 2 a la que se referirá Nelder es la siguiente:

“`{r}
knitr::include_graphics(“TABLA2.JPG”)
“`

#Figura 3: Tabla 2. Resultados de desviación para los datos de pérdida de amoníaco. #Fuente: Spiegelhalter, Best, Carlin & van der Linde. Bayesian measures of model complexity and fit, p. 610.
Así, Nelder (p. 622) señala: "Mi colega, el profesor Lee, ha planteado algunos puntos generales que conectan el tema de este artículo con nuestro trabajo sobre modelos lineales generalizados jerárquicos basados en la probabilidad. Quiero plantear un punto específico y dos generales. (a) El profesor Dodge ha demostrado que, de las 21 observaciones en el conjunto de datos de pérdida de amoníaco, ¡solo cinco no han sido declaradas como valores atípicos por alguien! Sin embargo, existe un modelo simple en el que ninguna observación aparece como un valor atípico. Es un modelo lineal generalizado con distribución gamma, log-link y predictor lineal x2 + log.x1 / Å log.x3 /: Esto da las siguientes entradas para la Tabla 2 en el documento: 98.3 92.6  6.2 104.5 (estoy en deuda con el Dr. Best por calcularlos). Es claramente mejor que los modelos existentes usados en la Tabla 2. (b) Este ejemplo ilustra mi primer punto general. Creo que ha pasado el tiempo en que bastaba con asumir un vínculo de identidad para los modelos y permitir que la distribución solo cambiara. Deberíamos tomar como nuestro conjunto de modelos de línea base al menos la clase de modeloos lineales generalizados definida por distribución, enlace y predictor lineal, con la elección de escalas para las covariables en el caso del predictor lineal. (c) Mi segundo punto general es que, para mí, no hay suficiente verificación de modelos en el artículo (supongo que el uso de tales técnicas no va en contra de las reglas bayesianas). Por ejemplo, si un conjunto de efectos aleatorios es suficientemente grande en número y el modelo postula que están distribuidos normalmente, sus estimaciones deben graficarse para ver si se parecen a una muestra de tal
distribución. Si parecen, por ejemplo, fuertemente bimodales, entonces el modelo debe revisarse." Que en paz descanse su alma.

Anthony Atkinson (p. 622) señala que dirige su participación al contexto de la regresión, concluyendo que este criterio de selección de modelos (el BIC planteado por los autores, que es el estimado mediante la sintaxis de R) es un primer paso, que necesita ser complementado
mediante pruebas de diagnóstico y gráficos. Para finalizar plantea que "Estos ejemplos muestran que la búsqueda hacia adelante es una herramienta extremadamente poderosa para este propósito. También requiere muchos ajustes del modelo a subconjuntos de datos. ¿Puede combinarse con los apreciables cálculos de los métodos de Monte Carlo de la cadena de Markov de los autores?" Que en paz descanse su alma.

A.P. Dawid plantea que el artículo debería haberse titulado "Medidas de la complejidad y el ajuste del modelo bayesiano", ya que según él son los modelos, no las medidas, los que son bayesianos. Una vez que se han especificado los ingredientes de un problema, cualquier pregunta relevante tiene una respuesta bayesiana única. La metodología bayesiana debe centrarse en cuestiones de especificación o en formas de calcular o aproximar la respuesta. No se requiere nada más (...) Un lugar donde un bayesiano podría querer una medida de la complejidad del modelo es como un sustituto de p en la aproximación del criterio de información de Bayes a la probabilidad marginal, por ejemplo, para modelos jerárquicos. Pero en tales casos, la definición del tamaño de muestra $n$ puede ser tan problemática como la de la dimensión del modelo $p$. Lo que necesitamos es un mejor sustituto del término completo $p⋅log(n)$". En línea con la gnoseología marxiana, lo adecuado parecería ser considerar que tanto los modelos como las medidas son bayesianos (o de otra escuela de filosofía de las probabilidades).

Las participaciones restantes son no tanto relativas a cuestiones metodológicas como a cuestiones filosóficas-fundacionales de la teoría bayesiana de las probabilidades y de la teoría de las probabilidades en general (puesto que el DIC, que es un criterio de información presentado por los mismos autores que presentan el BIC, no es bayesiano debido a que es una generalización del AIC -que es frecuentista-); de hecho, la transición de cuestiones metodológicas a filosóficas-fundacionales se expresa en el planteamiento de Dawid, quien aunque aborda cuestiones metodológicas lo hace con base en la lógica filosófica de que los modelos y no las medidas son los que pueden ser (o no) bayesianos. Por supuesto, estas últimas son las participaciones más importantes, sin embargo, abordalas escapa a los límites de esta investigación, por lo que para tan importante tarea se dedicará indudablemente un trabajo posterior.

###### 6.2.2.2. Ejecución de la Eliminación Hacia Atrás con el BIC

“`{r}
n = nrow(base)
mod5=step(mod3,k=log(n))
summary(mod5)
“`

#### 6.3. Método de Selección Hacia Adelante en R 

A propósito de lo señalado por Anthony Atkinson, para realizar un proceso de selección hacia adelante se puede usar la función `add1` inciando con un modelo que no contenga ninguna variable e indicando en `scope` cuales son todas las variables disponibles.  Ello se realiza de la siguiente forma: `add1(modb, scope=~pop + ingre + analf + crim + grad + temp + area)`.

“`{r}
mod6 = lm(esper~1,base)
modb=mod6
add1(modb, scope=~pop + ingre + analf + crim + grad + temp + area)
“`

En este caso se escoge agregar la variable que disminuya más el AIC. En este caso es **crim**. Se actualiza el modelo y se continúa hasta que todas tengan un AIC más bajo que el anterior: `modb=update(modb,.~.+crim)`.

“`{r}
modb=update(modb,.~.+crim)
add1(modb, scope=~pop + ingre + analf + crim + grad + temp + area)
modb=update(modb,.~.+grad)
add1(modb, scope=~pop + ingre + analf + crim + grad + temp + area)
modb=update(modb,.~.+temp)
add1(modb, scope=~pop + ingre + analf + crim + grad + temp + area)
modb=update(modb,.~.+pop)
add1(modb, scope=~pop + ingre + analf + crim + grad + temp + area)
“`

De forma similar se puede usar `step` para indicar `scope` (además de indicar `direction="forward"`) de la siguiente forma: `step(mod6,direction="forward",scope=~pop + ingre + analf + crim + grad + temp + area)`. `scope` "define la gama de modelos examinados en la búsqueda por pasos. Debe ser una fórmula única o una lista que contenga los componentes superior e inferior, ambas fórmulas. Consulte los detalles sobre cómo especificar las fórmulas y cómo se utilizan." (véase https://stat.ethz.ch/R-manual/R-devel/library/MASS/html/stepAIC.html).

En este caso, tiene la logica del modelo hacia adelante, se va ingresando las variables que reducen el AIC y luego quedan las que no estan en el modelo, osea las que incrementaria el AIC.

“`{r}
mod7=step(mod6,direction=”forward”,scope=~pop + ingre + analf + crim + grad + temp + area)
summary(mod7)
“`

PREDICTORES CUALITATIVOS E INTERACCIONES EN R: APLICACIONES PARA EL MERCADO DE SEGUROS y LA RESISTENCIA DE MATERIALES

isadore nabi

A. MERCADO DE SEGUROS

CASO DE APLICACIÓN

Sea un determinado mercado de seguros dentro del cual se aplican con cierta periodicidad innovaciones financieras para maximizar la tasa de ganancia de las firmas o empresas que innovan y en el que ocurre un determinado efecto “bola de nieve” para que la innovación sea adoptada por otras firmas. Se desea determinar la relación existente de la velocidad a la cual una innovación financiera es adoptada por una firma (la respuesta Y) con el tamaño de la empresa aseguradora (medida por el monto total de activos de la misma) y con el tipo financiero de la empresa aseguradora (si es accionaria o mutual).

B. RESISTENCIA DE MATERIALES

Se podría tener interés en vincular un determinado tipo de prueba de resistencia (“trat”) realizada a distintos tipos de tela de algodón de algún peso (“peso”) con la finalidad de determinar su resistencia “resist”. Así, puede construirse un modelo de regresión lineal simple que explique la resistencia “resist” en función del tratamiento aplicado “trat” y, posteriormente, crear un resumen de las variables involucradas en el modelo basado en los niveles del factor “trat” que se creó; en este caso, el resumen consiste en que obtenga la media “mean” de cada uno de los niveles del factor creado.

C. MÉTODOS Y TÉCNICAS ESTADÍSTICAS ESTUDIADAS Y APLICADAS

  • Insertar imágenes en R Markdown
  • Ajuste a recta de regresión
  • Gráfica de recta de regresión
  • Análisis descriptivo: residuos vs leverages
  • Análisis descriptivo con la sintaxis plot
  • Cambios en el nivel de referencia
  • Efectos principales y efectos de interacción
  • Construcción manual de funciones indicatriz para conjuntos simples

UNA APROXIMACIÓN TEÓRICA A LA DETERMINACIÓN DE LA IGUALDAD DE VARIANZAS DE DOS POBLACIONES

ISADORE NABI

Si las medias r-ésimas (los r-ésimos estadísticos de prueba) son únicas y existe convergencia en distribución entre las muestras en comparación distribución, estas tendrán también las mismas medias r-ésimas. Para garantizar la unicidad de los momentos debe garantizarse que la muestra y la población sean finitas o, a lo sumo, infinitas numerables (que sea posible poderla poner en correspondencia uno-a-uno con los números naturales); mientras que para garantizar que converjan en distribución debe garantizarse (aunque no es el único camino, más sí el óptimo para estos fines) antes la convergencia en media r-ésima, que para el caso de los espacios euclidianos y sus generalizaciones naturales (los espacios de Hilbert) debe ser convergencia en media cuadrática (porque la norma de tales espacios es de carácter cuadrático y sirve para estimar distancias bajo una lógica también cuadrática). Adicionalmente, en términos matemáticos, que converjan en media cuadrática garantiza que converjan en varianza. Que converjan en media cuadrática se verifica, en el contexto de los espacios ya mencionados, cuando se certifica a través de una prueba de hipótesis rigurosa que las medias de las dos poblaciones no difieren en términos estadísticamente significativos. Si el conjunto de condiciones anteriormente expuesto se cumple, entonces que dos muestras tengan la misma distribución y la misma media implica que su varianza será igual, lo que formalmente hablando implica que sus varianzas tenderán a ser iguales a medida se aproximen al tamaño de la población de la cual son parte. Debido a que una distribución no es caracterizada unívocamente por sus momentos sino por su función característica (si todos sus momentos son finitos), la cual es la solución a la ecuación integral generada tras la aplicación de la transformación de Fourier a la distribución de probabilidad en cuestión, la unicidad de los momentos implica formalmente hablando, además de la restricción antes impuesta sobre el tamaño de la muestra y la población, que las distribuciones de probabilidad tengan la misma función característica. Los parámetros de transformación de Fourier son, por definición, los mismos para todos los casos (a=1, b=1). El hecho de que las poblaciones sean o no sean homogéneas no es explícitamente relevante en términos teóricos puesto que la matemática pura no establece teoremas contemplando aspectos esenciales de los fenómenos que modela de manera abstracta-formal (garantiza que la heterogeneidad no sea un problema -en el terreno asintótico- al establecer los pre-requisitos antes mencionados, como se verá en el contexto aplicado). En términos aplicados es, sin lugar a dudas, completamente relevante porque puede tener implicaciones en que la diferencia en variabilidad de las muestras sea estadísticamente significativa; sin embargo, lo que se desprende en términos prácticos de lo expuesto teóricamente antes es que si dos muestras tienen la misma forma geométrica general (la misma distribución, que implica que los conjuntos de datos siguen el mismo patrón geométrico), más allá de variaciones de escala (producto de variaciones no significativas en los parámetros, es decir, variaciones que no cambian el tipo específico de distribución de la que se trate) y además existe convergencia en media (que es una forma rigurosa de expresar que, aproximadamente hablando, tendrán la misma media), también existirá convergencia en varianza, es decir, que las varianzas, diferirán a lo sumo, en una constante arbitraria C*, que se expresa teóricamente como el residuo de la solución a la ecuación integral antes mencionada. Por lo anterior, no es necesario realizar una prueba de potencia para la igualdad de varianzas establecida con prueba F, simplemente basta con verificar que las poblaciones sean las mismas, tengan el mismo tamaño de muestra y tengan la misma media para saber que tendrán la misma varianza o segundo momento.

ASPECTOS CONCEPTUALES GENERALES DEL DISEÑO EXPERIMENTAL POR BLOQUES

ISADORE NABI

Como se señala en (Dey, 2010, págs. 1-2), en determinadas situaciones experimentales, puede haber variaciones sistemáticas presentes entre las unidades experimentales[1]. Por ejemplo, en un experimento de campo, las unidades experimentales suelen ser parcelas de tierra. En un experimento de este tipo, puede haber un gradiente de fecundidad tal que las parcelas del mismo nivel de fecundidad sean más homogéneas que las que tienen distintos niveles de fecundidad. En experimentos con lechones como unidades experimentales, es muy plausible que los lechones pertenecientes a la misma camada estén genéticamente más cercanos entre sí (naciendo del mismo par de padres) que los que pertenecen a diferentes camadas. De manera similar, en experimentos con ganado, pueden estar involucradas diferentes razas (o diferentes edades) y se espera que los animales que pertenecen a la misma raza sean más parecidos que los que pertenecen a diferentes razas. En el contexto de los ensayos clínicos con pacientes que forman las unidades experimentales, el ensayo puede realizarse en diferentes centros (principalmente para obtener un número suficiente de observaciones) y los pacientes del mismo centro pueden ser más parecidos que los de diferentes centros debido a las diferencias en el tratamiento. prácticas y/o procedimientos de gestión seguidos en los diferentes centros. Los ejemplos anteriores, que son meramente ilustrativos y de ninguna manera exhaustivos, demuestran que en muchas situaciones existe una variación sistemática entre las unidades experimentales. En tales situaciones, el uso de un diseño completamente aleatorio no es apropiado. Más bien, se debe aprovechar la información a priori sobre esta variación sistemática mientras se diseña el experimento en el sentido de que esta información se debe utilizar durante el diseño para eliminar el efecto de dicha variabilidad. El impacto de este esfuerzo se verá reflejado en un error reducido, aumentando así la sensibilidad del experimento. Las consideraciones anteriores llevaron a la noción de control o bloqueo local. Los grupos de unidades experimentales relativamente homogéneas se denominan bloques. Cuando el bloqueo se realiza de acuerdo con un atributo, obtenemos un diseño de bloque. En un diseño de bloques, los tratamientos se aplican aleatoriamente a las unidades experimentales dentro de un bloque, y la asignación aleatoria de tratamientos a las unidades experimentales dentro de un bloque se realiza de forma independiente en cada bloque. El más simple entre los diseños de bloques es el diseño de bloques completos al azar.

Adicionalmente, (Batabyal, Sarkar, & Mandal, 2015, pág. 19) señalan que el experimento de gradiente de fertilidad (específicamente el del experimento por ellos analizado) se realizó antes del experimento del cultivo de prueba según la metodología inductiva propuesta por Ramamoorthy et al (1967), durante el verano de 2008-09, dividiendo el campo experimental en tres franjas rectangulares a lo largo del ancho. Los gradientes de fertilidad se crearon aplicando dosis graduadas de fertilizante N, P y K en las tiras como se muestra en la Tabla 1. El maíz forrajero se cultivó exhaustivamente para ayudar a que los fertilizantes se transformaran en el suelo por la planta y los microbios.

Figura 1

Fuente: (Batabyal, Sarkar, & Mandal, 2015, pág. 19).

La referencia anterior permite comprender conceptualmente el concepto gradiente al que se refirió Aloke Day en penúltima referencia realizada, así como también generalizar conceptualmente lo expuesto por este autor. Así, expresando de forma abstracta lo anterior, puede afirmarse que, en ciertas condiciones experimentales, pueden presentarse variaciones sistemáticas entre las unidades experimentales. En tales experimentos, existe variabilidad diferenciada en la distribución de los datos muestrales en las subregiones del espacio de muestra (en la teoría del diseño muestral estas subregiones son conocidas como bloques) a causa de un conjunto de factores subyacentes (por ello se considera la variabilidad de carácter sistemático) y esa variabilidad diferenciada por regiones se expresa matemáticamente como un gradiente, es decir, como una matriz en cuyo interior se contienen las derivadas parciales de primer orden de la función objetivo (la que explica la propagación diferenciada de la variabilidad) evaluadas en las subregiones pertinentes. Esta es la forma usual en que en el contexto de la teoría del diseño de experimentos y los ensayos clínicos se maneja el problema de volatilidad diferenciada de la varianza. El concepto bloque formaliza la noción de control local e implica cierta homogeneidad mínima entre los elementos de cada grupo, tiene como objetivo diseñar el experimento de tal forma que se elimine el efecto de esta variabilidad sistemática. Por supuesto, en otros contextos aplicados distintos de los ensayos clínicos puede desearse analizar el comportamiento del fenómeno estudiado considerando los efectos que la variabilidad diferenciada de la varianza y por ello existen modelos como el de heterocedasticidad condicional autorregresiva. Cuando los bloques han sido organizados alrededor de un atributo se está en presencia de un diseño por bloques y, en tal escenario, las variables explicativas (los tratamientos experimentales, para el caso aplicado) son consideradas como aleatorias (se aplican aleatoriamente sobre las unidades experimentales -pacientes humanos o de otra especie- al interior de un bloque). Esto se establece bajo el supuesto de que la aplicación de tales tratamientos a los elementos de cada bloque es linealmente independiente o, lo que es lo mismo, que al realizar la operación producto vectorial (exterior) entre los vectores que contienen las variables consideradas como estocásticas se genera un sistema de ecuaciones homogéneo de solución no nula.

Como señala (Dey, 2010, pág. 3), el más simple entre los diseños de bloques es el diseño de bloques completos al azar. En tal diseño, se requiere que cada bloque tenga tantas unidades experimentales como el número de tratamientos a evaluar, es decir, el tamaño del bloque sea igual al número de tratamientos. Sin embargo, no siempre es posible adoptar un diseño de bloques completos al azar en cada situación experimental. En primer lugar, si se supone que la variación intrabloque depende directamente del tamaño del bloque, entonces es preferible la adopción de un diseño con bloques de tamaños pequeños a uno que tenga tamaños de bloque grandes. Esto restringe el uso de diseños de bloques completos al azar en situaciones donde el número de tratamientos es grande. Por ejemplo, en los experimentos agronómicos, el experimentador generalmente elige un bloque de tamaño 10-12 y, si se acepta, no se puede adoptar un diseño de bloque completo al azar en situaciones en las que, digamos, se van a comparar 20 tratamientos. Además, en muchas situaciones experimentales, el tamaño del bloque está determinado por la naturaleza del experimento. Por ejemplo, con algunos experimentos en psicología, es bastante común considerar a los dos miembros de un par de gemelos como unidades experimentales de un bloque. En ese caso, claramente no se puede realizar diseño de bloques completos al azar si el número de tratamientos es mayor que dos (puesto que por definición en cada bloque existirá únicamente una observación -. De manera similar, es razonable tomar a los compañeros de camada (por ejemplo, ratones) como unidades de un bloque y el tamaño de la camada puede no ser adecuado para acomodar todos los tratamientos bajo prueba.

Los pocos ejemplos considerados anteriormente muestran claramente que, en muchas situaciones, no se puede adoptar un diseño de bloques completos al azar y, por lo tanto, es necesario buscar diseños en los que no todos los tratamientos aparezcan en cada bloque. Estos diseños se denominan diseños de bloques incompletos. Como señala (Dey, 2010, págs. 3-4), el tipo de diseño más importante del conjunto de diseños balanceados es el diseño de bloques balanceado e incompleto (BIB, por su nombre en inglés) y sobre ellos debe decirse que estos todavía se encuentran útiles en el diseño de experimentos en diversos campos y en los últimos años se han encontrado aplicaciones más nuevas de estos diseños, por ejemplo, en criptografía visual (véase, por ejemplo, Bose y Mukerjee (2006), Adhikary, Bose, Kumar y Roy (2007) y las referencias allí citadas).

Como señala (Wikipedia, 2021), el diseño por bloques es una estructura de incidencia[2] consistente en un conjunto de elementos expresados en familias denominadas bloques, escogidos tal que las frecuencias de los elementos satisfacen ciertas condiciones que permiten que la colección de bloques exhiba simetría (balance de bloques). Si no se dan más especificaciones, usualmente por “diseño de bloques” se hace referencia a un diseño de bloques balanceado e incompleto. Se dice que un diseño está balanceado hasta τ si todos los subconjuntos τ del conjunto original se presentan (como evento estadístico) en la misma cantidad de bloques λ. Cuando τ no está especificado, generalmente se puede suponer que es 2, lo que significa que cada par de elementos se encuentra en el mismo número de bloques y el diseño está “balanceado por pares”. Cualquier diseño equilibrado hasta τ también está equilibrado en todos los valores más bajos de τ (aunque con diferentes valores para λ). Por ejemplo, un diseño balanceado por pares (τ=2) es también regular (τ=1). Cuando falla el requisito de equilibrio, un diseño puede estar parcialmente equilibrado si los subconjuntos τ se pueden dividir en n-ésimas clases, cada una con su correspondiente (y diferente) valor para λ.

Así, señala última fuente referida que, para el caso de τ=2, estos diseños por bloques se conocen como PBIB(n), cuyas clases forman un esquema de asociación[3]. La teoría de los esquemas de asociación generaliza la teoría de los caracteres de representación lineal de grupos (y, por consiguiente, los esquemas de asociación generalizan la noción de grupos). Por lo general, se asume que los diseños están incompletos, lo que significa que ningún bloque contiene todos los elementos del conjunto, descartando así un diseño trivial (esta es otra forma en que se expresa la creencia de la estadística matemática clásica de que, si en un sistema de ecuaciones una ecuación es linealmente dependiente de otra u otras, entonces la variable que es descrita mediante tal ecuación no aporta información relevante). Los diseños por bloques pueden tener (o no) bloques repetidos. Cuando no tienen bloques repetidos, se denominan simples, en cuyo caso la familia de bloques es un conjunto en lugar de un multiconjunto. En estadística, el diseño de bloques se extiende a diseños de bloques no binarios los cuales pueden contener múltiples copias de un elemento de X, lo que implica que un diseño es regular sólo si es también binario. La matriz de incidencia de un diseño no binario (véase más adelante) enlista el número de veces que cada elemento de repite en cada bloque.

Adicionalmente, como señala (Dey, 2010, pág. 4), existen generalizaciones de los diseños BIB. Los diseños BIB son los únicos diseños en la clase de diseños de experimentos binarios[4], equirreplicados[5] y propios[6] que son balanceados (según se definió antes) tanto en varianza como en eficiencia; sin embargo, es posible encontrar otros diseños con equilibrio de varianza y eficiencia si uno expande la clase de diseños a diseños no binarios, no equirreplicados o no apropiados. Los métodos de construcción de diseños balanceados en varianza y eficiencia con replicaciones posiblemente desiguales y tamaños de bloques desiguales son el estado del arte más avanzado en el ámbito de los diseños balanceados.

Además, como se señala en la última fuente referida, existen los diseños de experimentos por bloques parcialmente balanceados, dentro de los cuales los más estudiados y aplicados empíricamente son los diseños de bloques parcialmente balanceados (PBIB, por su nombre en inglés). Los diseños de PBIB se introducen formalmente mediante la noción de esquema de asociación antes definida. Existen diseños con dos o más clases asociadas, así como también otros diseños parcialmente balanceados que no son necesariamente diseños PBIB. Estos incluyen los diseños conocidos como de celosía, cíclico, bloque enlazado, diseños en C y diseños α.

REFERENCIAS

Batabyal, K., Sarkar, D., & Mandal, B. (2015). Fertilizer-prescription equations for targeted yield in radish under integrated nutrient management system. Journal of Horticultural Sciences, X(1), 18-23. Obtenido de blob:resource://pdf.js/782dc541-51e4-4535-9551-8b7db5f35d1b

Dey, A. (2010). Incomplete Block Design. Tob Tuck Link, Singapore: World Scientific Publishing Co. Pte. Ltd.

Gupta, S. C., & Jones, B. (Agosto de 1983). Equireplicate Balanced Block Designs with Unequal Block Sizes. Biometrika, LXX(2), 433-440.

Shah, K. R., & Ashish, D. (Septiembre de 1992). Binary Designs Are Not Always the Bes. The Canadian Journal of Statistics / La Revue Canadienne de Statistique, XX(3), 347-351.

Weisstein, E. W. (19 de Septiembre de 2021). Monoid. Obtenido de MathWorld – A Wolfram Web Resource: https://mathworld.wolfram.com/Monoid.html

Wikipedia. (6 de Julio de 2021). Block design. Obtenido de Design of experiments: https://en.wikipedia.org/wiki/Block_design

Wikipedia. (27 de Septiembre de 2021). Incidence structure. Obtenido de Incidence geometry: https://en.wikipedia.org/wiki/Incidence_structure


[1] La variabilidad diferenciada de la varianza se encuentra en la literatura bajo el nombre de homogeneidad de varianza u homocedasticidad. Sin embargo, debe señalarse que no necesariamente son equivalentes metodológicamente, lo cual se explica por el hecho de que filosófica e históricamente no lo son. La heterocedasticidad tiene su génesis conceptual en el contexto de las estructuras de datos conocidas como series temporales, mientras que la homogeneidad de varianza tiene su génesis histórica en las estructuras de datos de sección cruzada. La posibilidad de su divergencia metodológica puede verificarse si alguna prueba para varianza no se puede hacer para sección cruzada y sí se puede hacer para series temporales (y/o para datos de panel, lo cual sería necesario investigar) o, por supuesto, a la inversa, que se pueda realizar para datos de sección cruzada y/o de panel, mientras que no sea posible para datos de series temporales (o bien, que sea posible para una estructura de datos, mientras que para la otra y su estructura combinada -datos de panel- no sea posible). Si no son diferentes, resulta técnicamente adecuado (con el fin de evitar ambigüedades) hablar de variabilidad diferenciada de la varianza, en lugar de hablar de “homogeneidad de varianza” o “heterocedasticidad” (puesto que los diferenciaría en un contexto en que son equivalentes). Así, aunque la posibilidad de su equivalencia o divergencia conceptual sea una cuestión fundamentalmente filosófica, su diferenciación se encuentra en las minucias metodológicas de las distintas técnicas estadísticas para medir y clasificar la variabilidad de la varianza. Por supuesto, sus diferencias filosóficas están basada en un hecho histórico-técnico concreto innegable: ambas estructuras de datos son distintas.

[2] Como señala (Wikipedia, 2021), una estructura de incidencia es un sistema abstracto consistente en dos tipos de objeto y una relación única entre ellos que se conoce como estructura de incidencia Se consideran una generalización del concepto de plano. Por su definición, son una estructura métrica vinculada a una estructura algebraica.

[3] Un esquema de asociación es un concepto algebraico que generaliza la noción de grupo. Un grupo es un monoide en el que además se cumple que sus elementos son invertibles. Un monoide es un conjunto cerrado (el equivalente matemático de autocontenido) bajo una operación asociativa binaria y con elemento identidad I que pertenece a S tal que para todo elemento a que pertenece a S se cumple que I*a = a*I = a y se diferencia de un grupo en el sentido de que no exige que sus elementos sean invertibles bajo alguna operación. Véase (Weisstein, 2021).

[4] Como se señala en (Shah & Ashish, 1992, pág. 347), un diseño en el que cada tratamiento aparece como máximo una vez en cualquier bloque en particular.

[5] Como se señala en (Gupta & Jones, 1983, pág. 433), un diseño por bloques equirreplicado es aquel en el que las variables independientes (en el contexto de la bioestadística y la psicometría usualmente son los tipos de tratamiento) se repiten en cada bloque la misma cantidad de veces.  

[6] Como se señala en (Wikipedia, 2021), un diseño por bloques es propio cuando todos los bloques tienen el mismo tamaño. También, como se señala en la fuente referida, se estudian también diseños por bloques que no son necesariamente uniformes; para τ=2 se conocen en la bibliografía bajo el nombre general de diseños equilibrados por pares, en donde cada par de elementos de X (cada par de elementos el conjunto de variables independientes) está contenido en exactamente en λ subconjuntos o bloques, en donde λ pertenece a los números naturales.

ASPECTOS TEÓRICOS GENERALES SOBRE LA MATRIZ DE DISEÑO ESTRUCTURAL

ISADORE NABI

Como se señala en (Eppinger & Browning, 2012, págs. 2-4), la matriz de diseño estructural (DSM de ahora en adelante, por sus siglas en inglés) es una herramienta de modelado de redes que se utiliza para representar los elementos que componen un sistema y sus interacciones, destacando así la arquitectura del sistema (o estructura diseñada). DSM se adapta particularmente bien a aplicaciones en el desarrollo de sistemas de ingeniería complejos y, hasta la fecha, se ha utilizado principalmente en el área de gestión de ingeniería. Sin embargo, en el horizonte hay una gama mucho más amplia de aplicaciones de DSM que abordan problemas complejos en la gestión de la atención médica, los sistemas financieros, las políticas públicas, las ciencias naturales y los sistemas sociales. El DSM se representa como una matriz cuadrada N x N, que mapea las interacciones entre el conjunto de N elementos del sistema. DSM, una herramienta muy flexible, se ha utilizado para modelar muchos tipos de sistemas. Dependiendo del tipo de sistema que se modele, DSM puede representar varios tipos de arquitecturas. Por ejemplo, para modelar la arquitectura de un producto, los elementos de DSM serían los componentes del producto y las interacciones serían las interfaces entre los componentes (figura 1.1.a).

Fuente: (Eppinger & Browning, 2012, pág. 1).

Para modelar la arquitectura de una organización, los elementos de DSM serían las personas o equipos de la organización, y las interacciones podrían ser comunicaciones entre las personas (figura l.1.b). Para modelar una arquitectura de proceso, los elementos del DSM serían las actividades en el proceso, y las interacciones serían los flujos de información y/o materiales entre ellos (figura l.l.c). Los modelos DSM de diferentes tipos de arquitecturas pueden incluso combinarse para representar cómo se relacionan los diferentes dominios del sistema dentro de un sistema más grande (figura l.l.d). Por tanto, el DSM es una herramienta genérica para modelar cualquier tipo de arquitectura de sistema. En comparación con otros métodos de modelado de redes, el principal beneficio de DSM es la naturaleza gráfica del formato de visualización de la matriz. La matriz proporciona una representación muy compacta, fácilmente escalable y legible de forma intuitiva de la arquitectura de un sistema. La figura l.3.a muestra un modelo DSM simple de un sistema con ocho elementos, junto con su representación gráfica dirigida equivalente (dígrafo) en la figura 1.3.b.

Fuente: (Eppinger & Browning, 2012, pág. 4).

En comparación con otros métodos de modelado de redes, el principal beneficio de DSM es la naturaleza gráfica del formato de visualización de la matriz. La matriz proporciona una representación muy compacta, fácilmente escalable y legible de forma intuitiva de la arquitectura de un sistema. La figura l.3.a muestra un modelo DSM simple de un sistema con ocho elementos, junto con su representación equivalente como grafo dirigido (dígrafo) en la figura 1.3.b. En los estudios iniciales de DSM, a muchos les resulta fácil pensar que las celdas a lo largo de la diagonal de la matriz representan los elementos del sistema, análogos a los nodos en el modelo de dígrafo; sin embargo, es necesario mencionar que, para mantener el diagrama de matriz compacto, los nombres completos de los elementos a menudo se enumeran a la izquierda de las filas (y a veces también encima de las columnas) en lugar de en las celdas diagonales. También es fácil pensar que cada celda sobre la diagonal principal de la matriz puede tener entradas que ingresan desde sus lados izquierdo y derecho y salidas que salen desde arriba y abajo. Las fuentes y destinos de estas interacciones de entrada y salida se identifican mediante marcas en las celdas fuera de la diagonal (en la figura anterior expresadas con una letra X) análogas a los arcos direccionales en el modelo de dígrafo. Examinar cualquier fila de la matriz revela todas las entradas del elemento en esa fila (que son salidas de otros elementos).

Si se observa hacia abajo, cualquier columna de la matriz muestra todas las salidas del elemento en esa columna (que se convierten en entradas para otros elementos). En el ejemplo simple de DSM que se muestra en la figura 1.3.a, los ocho elementos del sistema están etiquetados de la A a la H, y hemos etiquetado tanto las filas como las columnas de la A a la H en consecuencia. Al leer la fila D, por ejemplo, vemos que el elemento D tiene entradas de los elementos A, B y F, representados por las marcas X en la fila D, columnas A, B y F. Al leer la columna F, vemos ese elemento F tiene salidas que van a los elementos B y D. Por lo tanto, la marca en la celda fuera de la diagonal [D, F] representa una interacción que es tanto una entrada como una salida dependiendo de si se toma la perspectiva de su proveedor (columna F) o su receptor (fila D). Es importante notar que muchos recursos de DSM usan la convención opuesta, la transposición de la matriz, con las entradas de un elemento mostradas en su columna y sus salidas mostradas en su fila. Las dos convenciones transmiten la misma información, y ambas se utilizan ampliamente debido a las diversas raíces de las herramientas basadas en matrices para los sistemas de modelado.

En este sentido, como se verifica en (IBM, 2021), en diversos escenarios aplicados puede existir más de una función discriminante[1], como se muestra a continuación.

Fuente: (IBM, 2021).

En general, como se verifica en (Zhao & Maclean, 2000, pág. 841), el análisis discriminante canónico (CDA, por nombre en inglés) es una técnica multivariante que se puede utilizar para determinar las relaciones entre una variable categórica y un grupo de variables independientes. Uno de los propósitos principales de CDA es separar clases (poblaciones) en un espacio discriminante de menor dimensión. En este contexto es que cuando existe más de una función discriminante (cada una de estas puede verse como un modelo de regresión lineal), un asterisco (*) como en este caso (para el caso del programa SaaS) u otro símbolo denotará la mayor correlación absoluta de cada variable con una de las funciones canónicas. Dentro de cada función, estas variables marcadas se ordenan por el tamaño de la correlación. Para el caso de la tabla presentada en la figura anterior, su lectura debe realizarse de la siguiente manera:

  1. “Nivel educativo” está más fuertemente correlacionado con la primera función y es la única variable más fuertemente correlacionada con esta función.
  2. Años con empresa actual, “Edad” en años, “Ingresos del hogar” en miles, “Años” en la dirección actual, “Retirado” y “Sexo” están más fuertemente correlacionados con la segunda función, aunque “Sexo” y “Jubilación” están más débilmente correlacionados que los otros. Las demás variables marcan esta función como función de “estabilidad”.
  3. “Número de personas en el hogar” y “Estado civil” están más fuertemente correlacionados con la tercera función discriminante, pero esta es una función sin utilidad, así que estos predictores son prácticamente inútiles.

REFERENCIAS

de la Fuente Fernández, S. (s.f.). Análisis Discriminante. Obtenido de Universidad Autónoma de Madrid: https://www.estadistica.net/Master-Econometria/Analisis_Discriminante.pdf

Eppinger, S. D., & Browning, T. R. (2012). Design Structure Matrix Methods and Applications. Cambridge, Massachusetts: MIT Press.

IBM. (2021). Análisis discriminante. Obtenido de SPSS Statistics: https://www.ibm.com/docs/es/spss-statistics/version-missing?topic=features-discriminant-analysis

IBM. (2021). Matriz de estructura. Obtenido de SaaS: https://www.ibm.com/docs/es/spss-modeler/SaaS?topic=customers-structure-matrix

Wikipedia. (23 de Junio de 2021). Linear classifier. Obtenido de Statistical classification: https://en.wikipedia.org/wiki/Linear_classifier

Zhao, G., & Maclean, A. L. (2000). A Comparison of Canonical Discriminant Analysis and Principal Component Analysis for Spectral Transformation. Photogrammetric Engineering & Remote Sensing, 841-847. Obtenido de https://www.asprs.org/wp-content/uploads/pers/2000journal/july/2000_jul_841-847.pdf

[1] Como se verifica en (de la Fuente Fernández, pág. 1), un discriminante es cada una de las variables independientes con las que se cuenta. Además, como se verifica en (IBM, 2021), una función discriminante es aquella que, mediante las diferentes combinaciones lineales de las variables predictoras, busca realizar la mejor discriminación posible entre los grupos. No debe olvidarse que, como se señala en (Wikipedia, 2021), En el campo del aprendizaje automático, el objetivo de la clasificación estadística es utilizar las características de un objeto para identificar a qué clase (o grupo) pertenece.

SOBRE LA INICIATIVA INTERNACIONAL DE PROMOCIÓN DE POLÍTICA ECONÓMICA (IIPE 2021), EL IMPERIALISMO, CHINA Y LAS FINANZAS INTERNACIONALES

BREVE INTRODUCCIÓN

Este día se publicó una investigación en el sitio web de Michael Roberts que versa, en general, sobre el papel del desarrollo tecnológico en el comercio internacional como mecanismo de acumulación de capital característico de la economía capitalista planetaria en su fase imperialista. Sobre dicha investigación se elabora la presente publicación, la cual está compuesta por tres secciones. En la primera sección se realiza un breve abordaje histórico sobre aspectos teóricos de interés abordados por Roberts en su publicación de naturaleza fundamentalmente empírica. En la segunda sección se presenta la traducción de la publicación de Roberts. Finalmente, en la tercera sección se facilita la descarga de las referencias bibliográficas presentadas por Roberts en su publicación.

I. ASPECTOS TEÓRICOS preliminares

Es importante decir que la teoría sobre el capitalismo en su fase imperialista hunde sus raíces empíricas más importantes el trabajo de Vladimir Lenin (1916) y sus raíces teóricas más importantes en el trabajo de Arghiri Emmanuel (1962). Por supuesto, el trabajo de Lenin no se limitó a ser empírico, pero fue en esta dirección la centralización de sus esfuerzos y ello conforma un punto de partida razonable para un breve análisis sobre cómo (y por qué) han evolucionado las teorías marxistas sobre el imperialismo.

Lenin fue el primer teórico del marxismo que estudió la acumulación de capital a escala planetaria considerando las relaciones centro-perisferia como una generalización económica, política, social y cultural de la lucha de clases nacional; sobre ello no existe debate relevante en el seno de la comunidad marxista. La armonía no es tal cuando se trata de abordar la obra de Arghiri Emmanuel. Cualquier persona lo suficientemente estudiosa de la historia de las ciencias sabrá que, sobre todo en ciencias sociales (con especial énfasis en economía política), la aceptación de una teoría no tiene que ver con motivos puramente académicos sino también políticos. La teoría de economía política internacional (de ahora en adelante economía geopolítica) de Emmanuel tuvo poca aceptación entre la comunidad marxista fundamentalmente no por su polémico uso de la ley del valor en el concierto internacional, sino por las conclusiones políticas que su teoría generaba. La idea central de Emmanuel es que en el concierto interncional ocurre una transformación global de valores a precios de producción como la que ocurre (salvo las particularidades naturales características del incremento en complejidad del sistema) a escala local o nacional. Es esa y no otra la idea fundamental del trabajo de Emmanuel, con independencia del grado de acuerdo (o desacuerdo) que se tenga sobre la forma en que realiza tal planteamiento. La lógica que condujo a Emmanuel a la construcción de esta idea, que no es más que una aplicación global de la lógica local de la transformación de valores en precios de producción ya dada por Marx, parecería ser la misma que la que condujo a construir, por ejemplo, la teoría de la selección natural o la teoría matemática del caos el concepto de autosimilaridad. Esta esta lógica se puede generalizar como se plantea a continuación.

Los componentes (modelados mediante ecuaciones) de una totalidad (modelada mediante un sistema de ecuaciones) comparten una esencia común (i.e., que son isomórficos entre sí) que permite su combinación integrodiferencial de forma armónica y coherente bajo una determinada estructura interna de naturaleza material (objetiva), no-lineal (la totalidad es diferente a la suma de sus partes) y dinámica (el tiempo transcurre) generada por la interacción de tales componentes dadas determinadas condiciones iniciales. La estructura interna del sistema (o totalidad de referencia) condiciona a los componentes que la generan bajo el mismo conjunto de leyes (pero generalizado, por lo que no es formalmente el mismo) que rigen la interacción entre las condiciones iniciales y las relaciones primigenias entre componentes que determinaron la gestación de dicha estructura interna. Estas leyes son: 1. Unidad y Lucha de los Contrarios (que implica emergencia y al menos autoorganización crítica), 2. Salto de lo Cuantitativo a lo Cualitativo (bifurcación), 3. Ley de la Negación de la Negación (que es una forma generalizada de la síntesis química).

SOBRE DIALÉCTICA Y COMPLEJIDAD

Antes de proceder a exponer las fuentes formales y fácticas de la poca popularidad de las teorías de Emmanuel, es necesario decir un par de cuestiones relativas al papel que desempeña el tiempo en el sistema marxiano. Las escuelas de pensamiento económico marxista se pueden clasificar según su abordaje matemático del proceso histórico de transformación de valores en precios de producción; sin embargo, aún dentro de las mismas escuelas existen divergencias teóricas importantes, fundamentalmente en relación a la MELT (Monetary Expression of Labor Time) o algún equivalente de esta. Así, las escuelas de pensamiento económico marxista son la escuela temporalista, la escuela simultaneísta y alguna combinación o punto intermedio entre ellas. Todas estas diferencias filosóficas, en contraste con lo que ocurre en Filosofía de la Estadística entre, por ejemplo, frecuentistas y bayesianos subjetivos, no solo no requieren de mucha investigación para ser verificadas empíricamente, sino que además tienen como consecuencia la gestación de sistemas matemáticos que hasta la fecha (la realidad es cambiante, indudablemente) han resultado antagónicos teóricamente respecto de ese punto (en el de transformar valores en precios de producción) y numéricamente diferentes de forma sustancial en sus predicciones (aunque cualitativamente es usual que sus diferencias no sean esenciales, salvo en el punto expuesto -que es evidentemente un aspecto medular de la teoría de Marx-).

La polémica sobre el uso de la ley del valor de Emmanuel tuvo que ver con el manejo de los supuestos que realizó y, con ello, con los escenarios teóricos que identificaba con la realidad. Esta polémica se agudizó luego de que, tras las críticas recibidas (cuyo trasfondo era teórico solo formalmente o minoritariamente en su defecto), Emmanuel publicara un sistema de ecuaciones simultáneas (con ello se ganó el rechazo de los marxistas más conservadores de la época -los cuales eran reacios al uso de las matemáticas-, que no eran minoría) para abordar la transformación de valores en precios de producción) poco ortodoxo para el oficialismo de lo que se podría denominar como “marxismo matemático”, lo que en términos netos le valió para la época (1962) incompatibilidad intelectual con la generalidad de los académicos.

El debate teórico real no es, evidentemente, si el tiempo existe o no, sino si es lo suficientemente relevante para configurar el sistema matemático alrededor del mismo o si no lo es y, por consiguiente, no existen consecuencias relevantes (tanto teóricas como numéricas) por descartarlo del modelo formal del sistema capitalista. Emmanuel define en su obra el valor como cantidad cronométrica de trabajo socialmente necesario (que es la misma definición del marxismo clásico, sólo que comprimida), sin embargo, su modelo de transformación de valores en precios de producción hace uso de las ecuaciones simultáneas (lo heterodoxo del asunto radica en que establece ex ante al trabajo como la variable fundamental del sistema, para que las ecuaciones y las incógnitas se igualen automáticamente y afirmar con ello que se implica la anterioridad histórica de la fuerza de trabajo, puesto que lo precede teóricamente), aunque tampoco por ello tenga problema en afirmar que existen “dos esencias” (el capital y el trabajo) o, en otros términos, que no sólo el trabajo crea valor. ¿Cuál fue entonces el trasfondo político?

A pesar de que en tiempos modernos pueda resultar un poco difícil de pensar, alrededor de 1962 existía un relativamente pujante movimiento obrero internacional y políticamente su unidad era cardinal en la lucha contra la explotación planeataria y el modelo de Emmanuel, guste o no, implica que el bienestar de los trabajadores de los países industrializados es sufragado indirectamente por las condiciones de miseria extrema que se viven en los países de la periferia. Por supuesto, ello se implica también a nivel local, ¿quiénes permiten que los trabajadores de las ramas productivas más intensivas en capital obtengan salarios muy por encima del promedio salarial nacional sino los trabajadores de las ramas productivas intensivas en trabajo?, en un sistema de economía política los agentes económicos guardan entre sí relaciones de suma cero, es decir, la ganancia de unos implica la pérdida de otros, aunque esto no siempre ocurre (y mucho menos se observa) de forma inmediata; este hecho fundamental no cambia en un sistema de economía geopolítica. Sin embargo, aunque la topología en ambos sistemas es fundamentalmente la misma las métricas cambian y las grandes brechas sociales observadas internacionalmente (por ejemplo, entre Noruega y Haití) no se observan en términos generales (promedio) a nivel local, lo que hace más notoria la explotación, aunque no más real. Complementariamente, debe resaltarse el hecho de que, dentro de sus propias condiciones materiales de existencia, los trabajadores de los países industrializados tienen sus propias luchas sociales.

Mi máximo cariño, aprecio y admiración a toda la comunidad marxista de aquella época, puesto que al fin y al cabo lucha de clases fáctica es nuestra misión última y todos somos producto de nuestras condiciones históricas, es decir, aunque hacemos la historia, no hacemos las condiciones bajo las cuales hacemos nuestra historia.

II. IIPPE 2021: imperialism, China and finance – michael roberts

La conferencia 2021 de la Iniciativa Internacional para la Promoción de la Economía Política (IIPPE) tuvo lugar hace un par de semanas, pero solo ahora he tenido tiempo de revisar los numerosos trabajos presentados sobre una variedad de temas relacionados con la economía política. El IIPPE se ha convertido en el canal principal para que economistas marxistas y heterodoxos ‘presenten sus teorías y estudios en presentaciones. Las conferencias de materialismo histórico (HM) también hacen esto, pero los eventos de HM cubren una gama mucho más amplia de temas para los marxistas. Las sesiones de Union for Radical Political Economy en la conferencia anual de la American Economics Association se concentran en las contribuciones marxistas y heterodoxas de la economía, pero IIPPE involucra a muchos más economistas radicales de todo el mundo.

Ese fue especialmente el caso de este año porque la conferencia fue virtual en zoom y no física (¿tal vez el próximo año?). Pero todavía había muchos documentos sobre una variedad de temas guiados por varios grupos de trabajo del IIPPE. Los temas incluyeron teoría monetaria, imperialismo, China, reproducción social, financiarización, trabajo, planificación bajo el socialismo, etc. Obviamente no es posible cubrir todas las sesiones o temas; así que en esta publicación solo me referiré a las que asistí o en las que participé.

El primer tema para mí fue la naturaleza del imperialismo moderno con sesiones que fueron organizadas por el grupo de trabajo de Economía Mundial. Presenté un artículo, titulado La economía del imperialismo moderno, escrito conjuntamente por Guglielmo Carchedi y yo. En la presentación argumentamos, con evidencia, que los países imperialistas pueden definirse económicamente como aquellos que sistemáticamente obtienen ganancias netas, intereses y rentas (plusvalía) del resto del mundo a través del comercio y la inversión. Estos países son pequeños en número y población (solo 13 o más califican según nuestra definición).

Demostramos en nuestra presentación que este bloque imperialista (IC en el gráfico a continuación) obtiene algo así como 1,5% del PIB cada año del ‘intercambio desigual’ en el comercio con los países dominados (DC en el gráfico) y otro 1,5% del PIB de intereses, repatriación de utilidades y rentas de sus inversiones de capital en el exterior. Como estas economías están creciendo actualmente a no más del 2-3% anual, esta transferencia es un apoyo considerable al capital en las economías imperialistas.

https://thenextrecession.files.wordpress.com/2021/09/ii1.png

Los países imperialistas son los mismos “sospechosos habituales” que Lenin identificó en su famosa obra hace unos 100 años. Ninguna de las llamadas grandes “economías emergentes” está obteniendo ganancias netas en el comercio o las inversiones – de hecho, son perdedores netos para el bloque imperialista – y eso incluye a China. De hecho, el bloque imperialista extrae más plusvalía de China que de muchas otras economías periféricas. La razón es que China es una gran nación comercial; y también tecnológicamente atrasado en comparación con el bloque imperialista. Entonces, dados los precios del mercado internacional, pierde parte de la plusvalía creada por sus trabajadores a través del comercio hacia las economías más avanzadas. Esta es la explicación marxista clásica del “intercambio desigual” (UE).

Pero en esta sesión, esta explicación de los logros imperialistas fue discutida. John Smith ha producido algunos relatos convincentes y devastadores de la explotación del Sur Global por parte del bloque imperialista. En su opinión, la explotación imperialista no se debe a un “intercambio desigual” en los mercados entre las economías tecnológicamente avanzadas (imperialismo) y las menos avanzadas (la periferia), sino a la “superexplotación”. Los salarios de los trabajadores del Sur Global han bajado incluso de los niveles básicos de reproducción y esto permite a las empresas imperialistas extraer enormes niveles de plusvalía a través de la “cadena de valor” del comercio y los márgenes intraempresariales a nivel mundial. Smith argumentó en esta sesión que tratar de medir las transferencias de plusvalía del comercio utilizando estadísticas oficiales como el PIB de cada país era una ‘economía vulgar’ que Marx habría rechazado porque el PIB es una medida distorsionada que deja fuera una parte importante de la explotación de la economía global. Sur.

Nuestra opinión es que, incluso si el PIB no captura toda la explotación del Sur Global, nuestra medida de intercambio desigual todavía muestra una enorme transferencia de valor de las economías periféricas dependientes al núcleo imperialista. Además, nuestros datos y medidas no niegan que gran parte de esta extracción de plusvalía proviene de una mayor explotación y salarios más bajos en el Sur Global. Pero decimos que esta es una reacción de los capitalistas del Sur a su incapacidad para competir con el Norte tecnológicamente superior. Y recuerde que son principalmente los capitalistas del Sur los que están haciendo la “súper explotación”, no los capitalistas del Norte. Estos últimos obtienen una parte a través del comercio de cualquier plusvalía extra de las mayores tasas de explotación en el Sur.

De hecho, mostramos en nuestro artículo, las contribuciones relativas a la transferencia de plusvalía de tecnología superior (mayor composición orgánica del capital) y de explotación (tasa de plusvalía) en nuestras medidas. La contribución de la tecnología superior sigue siendo la principal fuente de intercambio desigual, pero la participación de diferentes tasas de plusvalía se ha elevado a casi la mitad.

https://thenextrecession.files.wordpress.com/2021/09/ii2.png

Andy Higginbottom en su presentación también rechazó la teoría marxista clásica del imperialismo del intercambio desigual presentada en el artículo Carchedi-Roberts, pero por diferentes motivos. Consideró que la igualación de las tasas de ganancia a través de las transferencias de plusvalías individuales a precios de producción se realizó de manera inadecuada en nuestro método (que seguía a Marx). Por lo tanto, nuestro método podría no ser correcto o incluso útil para empezar.

En resumen, nuestra evidencia muestra que el imperialismo es una característica inherente del capitalismo moderno. El sistema internacional del capitalismo refleja su sistema nacional (un sistema de explotación): explotación de las economías menos desarrolladas por las más desarrolladas. Los países imperialistas del siglo XX no han cambiado. No hay nuevas economías imperialistas. China no es imperialista en nuestras medidas. La transferencia de plusvalía por parte de la UE en el comercio internacional se debe principalmente a la superioridad tecnológica de las empresas del núcleo imperialista pero también a una mayor tasa de explotación en el “sur global”. La transferencia de plusvalía del bloque dominado al núcleo imperialista está aumentando en términos de dólares y como porcentaje del PIB.

En nuestra presentación, revisamos otros métodos para medir el “intercambio desigual” en lugar de nuestro método de “precios de producción”, y hay bastantes. En la conferencia, hubo otra sesión en la que Andrea Ricci actualizó (ver sección III) su invaluable trabajo sobre la medición de la transferencia de plusvalía entre la periferia y el bloque imperialista utilizando tablas mundiales de insumo-producto para los sectores comerciales y medidas en dólares PPA. Roberto Veneziani y sus colegas también presentaron un modelo de equilibrio general convencional para desarrollar un “índice de explotación” que muestra la transferencia neta de valor en el comercio de los países. Ambos estudios apoyaron los resultados de nuestro método más “temporal”.

En el estudio de Ricci hay una transferencia neta anual del 4% de la plusvalía en el PIB per cápita a América del Norte; casi el 15% per cápita para Europa occidental y cerca del 6% para Japón y Asia oriental. Por otro lado, existe una pérdida neta de PIB anual per cápita para Rusia del 17%; China 10%, América Latina 5-10% y 23% para India.

https://thenextrecession.files.wordpress.com/2021/09/ii3.png

En el estudio de Veneziani et al, “todos los países de la OCDE están en el centro, con un índice de intensidad de explotación muy por debajo de 1 (es decir, menos explotado que explotador); mientras que casi todos los países africanos son explotados, incluidos los veinte más explotados “. El estudio coloca a China en la cúspide entre explotados y explotados.

https://thenextrecession.files.wordpress.com/2021/09/ii4.png

En todas estas medidas de explotación imperialista, China no encaja a la perfección, al menos económicamente. Y esa es la conclusión a la que también se llegó en otra sesión que lanzó un nuevo libro sobre imperialismo del economista marxista australiano Sam King. El convincente libro de Sam King propone que la tesis de Lenin era correcta en sus fundamentos, a saber, que el capitalismo se había convertido en lo que Lenin llamó “capital financiero monopolista” (si bien su libro no está disponible de forma gratuita, su tesis versa fundamentalmente sobre lo mismo). El mundo se ha polarizado en países ricos y pobres sin perspectivas de que ninguna de las principales sociedades pobres llegue a formar parte de la liga de los ricos. Cien años después, ningún país que fuera pobre en 1916 se ha unido al exclusivo club imperialista (salvo con la excepción de Corea y Taiwán, que se beneficiaron específicamente de las “bendiciones de la guerra fría del imperialismo estadounidense”).

La gran esperanza de la década de 1990, promovida por la economía del desarrollo dominante de que Brasil, Rusia, India, China y Sudáfrica (BRICS) pronto se unirían a la liga de los ricos en el siglo XXI, ha demostrado ser un espejismo. Estos países siguen siendo también rans y todavía están subordinados y explotados por el núcleo imperialista. No hay economías de rango medio, a medio camino, que puedan ser consideradas como “subimperialistas” como sostienen algunos economistas marxistas. King muestra que el imperialismo está vivo y no tan bien para los pueblos del mundo. Y la brecha entre las economías imperialistas y el resto no se está reduciendo, al contrario. Y eso incluye a China, que no se unirá al club imperialista.

Hablando de China, hubo varias sesiones sobre China organizadas por el grupo de trabajo IIPPE China. Las sesiones fueron grabadas y están disponibles para verlas en el canal de YouTube de IIPPE China. La sesión cubrió el sistema estatal de China; sus políticas de inversión extranjera; el papel y la forma de planificación en China y cómo China se enfrentó a la pandemia de COVID.

También hubo una sesión sobre ¿Es capitalista China?, en la que realicé una presentación titulada ¿Cuándo se volvió capitalista China? El título es un poco irónico, porque argumenté que desde la revolución de 1949 que expulsó a los terratenientes compradores y capitalistas (que huyeron a Formosa-Taiwán), China ya no ha sido capitalista. El modo de producción capitalista no domina en la economía china incluso después de las reformas de mercado de Deng en 1978. En mi opinión, China es una “economía de transición” como lo era la Unión Soviética, o lo son ahora Corea del Norte y Cuba.

En mi presentación defino qué es una economía de transición, como la vieron Marx y Engels. China no cumple con todos los criterios: en particular, no hay democracia obrera, no hay igualación o restricciones en los ingresos; y el gran sector capitalista no está disminuyendo constantemente. Pero, por otro lado, los capitalistas no controlan la maquinaria estatal, sino los funcionarios del Partido Comunista; la ley del valor (beneficio) y los mercados no dominan la inversión, sí lo hace el gran sector estatal; y ese sector (y el sector capitalista) tienen la obligación de cumplir con los objetivos de planificación nacional (a expensas de la rentabilidad, si es necesario).

Si China fuera simplemente otra economía capitalista, ¿cómo explicamos su fenomenal éxito en el crecimiento económico, sacando a 850 millones de chinos de la línea de pobreza ?; y evitar las recesiones económicas que las principales economías capitalistas han sufrido de forma regular? Si ha logrado esto con una población de 1.400 millones y, sin embargo, es capitalista, entonces sugiere que puede haber una nueva etapa en la expansión capitalista basada en alguna forma estatal de capitalismo que sea mucho más exitosa que los capitalismos anteriores y ciertamente más que sus pares en India, Brasil, Rusia, Indonesia o Sudáfrica. China sería entonces una refutación de la teoría marxista de la crisis y una justificación del capitalismo. Afortunadamente, podemos atribuir el éxito de China a su sector estatal dominante para la inversión y la planificación, no a la producción capitalista con fines de lucro y al mercado.

Para mí, China se encuentra en una “transición atrapada”. No es capitalista (todavía) pero no avanza hacia el socialismo, donde el modo de producción es a través de la propiedad colectiva de los medios de producción para las necesidades sociales con consumo directo sin mercados, intercambio o dinero. China está atrapada porque todavía está atrasada tecnológicamente y está rodeada de economías imperialistas cada vez más hostiles; pero también está atrapado porque no existen organizaciones democráticas de trabajadores y los burócratas del PC deciden todo, a menudo con resultados desastrosos.

Por supuesto, esta visión de China es minoritaria. Los “expertos en China” occidentales están al unísono de que China es capitalista y una forma desagradable de capitalismo para arrancar, no como los capitalismos “democráticos liberales” del G7. Además, la mayoría de los marxistas están de acuerdo en que China es capitalista e incluso imperialista. En la sesión, Walter Daum argumentó que, incluso si la evidencia económica sugiere que China no es imperialista, políticamente China es imperialista, con sus políticas agresivas hacia los estados vecinos, sus relaciones comerciales y crediticias explotadoras con países pobres y su supresión de minorías étnicas como los uyghars en la provincia de Xinjiang. Otros presentadores, como Dic Lo y Cheng Enfu de China, no estuvieron de acuerdo con Daum, y Cheng caracterizó a China como “socialista con elementos del capitalismo de Estado”, una formulación extraña que suena confusa.

Finalmente, debo mencionar algunas otras presentaciones. Primero, sobre la controvertida cuestión de la financiarización. Los partidarios de la ‘financiarización’ argumentan que el capitalismo ha cambiado en los últimos 50 años de una economía orientada a la producción a una dominada por el sector financiero y son las visiones de este sector inestable las que causan las crisis, no los problemas de rentabilidad en el sector productivo. sectores, como argumentó Marx. Esta teoría ha dominado el pensamiento de los economistas poskeynesianos y marxistas en las últimas décadas. Pero cada vez hay más pruebas de que la teoría no solo es incorrecta teóricamente, sino también empíricamente.

Y en IIPPE, Turan Subasat y Stavros Mavroudeas presentaron aún más evidencia empírica para cuestionar la “financiarización” en su artículo titulado: La hipótesis de la financiarización: una crítica teórica y empírica. Subasat y Mavroudeas encuentran que la afirmación de que la mayoría de las empresas multinacionales más grandes son “financieras” es incorrecta. De hecho, la participación de las finanzas en los EE. UU. Y el Reino Unido no ha aumentado en los últimos 50 años; y durante los últimos 30 años, la participación del sector financiero en el PIB disminuyó en un 51,2% y la participación del sector financiero en los servicios disminuyó en un 65,9% en los países estudiados. Y no hay evidencia de que la expansión del sector financiero sea un predictor significativo del declive de la industria manufacturera, que ha sido causado por otros factores (globalización y cambio técnico).

Y hubo algunos artículos que continuaron confirmando la teoría monetaria de Marx, a saber, que las tasas de interés no están determinadas por una “ tasa de interés natural ” de la oferta y la demanda de ahorros (como argumentan los austriacos) o por la preferencia de liquidez, es decir, el acaparamiento de dinero (como afirman los keynesianos), pero están limitados e impulsados ​​por los movimientos en la rentabilidad del capital y, por lo tanto, la demanda de fondos de inversión. Nikos Stravelakis ofreció un artículo, Una reconciliación de la teoría del interés de Marx y el rompecabezas de la prima de riesgo, que mostraba que las ganancias netas corporativas están relacionadas positivamente con los depósitos bancarios y las ganancias netas a brutas están relacionadas positivamente con la tasa de depósitos de préstamos y que el 60% de las variaciones en las tasas de interés pueden explicarse por cambios en la tasa de ganancia. Y Karl Beitel mostró la estrecha conexión entre el movimiento a largo plazo de la rentabilidad en las principales economías en los últimos 100 años (cayendo) y la tasa de interés de los bonos a largo plazo (cayendo). Esto sugiere que hay un nivel máximo de tasas de interés, como argumentó Marx, determinado por la tasa de ganancia sobre el capital productivo, porque el interés proviene solo de la plusvalía.

Finalmente, algo que no estaba en IIPPE pero que agrega aún más apoyo a la ley de Marx de la tendencia a la caída de la tasa de ganancia. En el libro World in Crisis, coeditado por Carchedi y yo, muchos economistas marxistas presentaron evidencia empírica de la caída de la tasa de ganancia del capital de muchos países diferentes. Ahora podemos agregar otro. En un nuevo artículo, El crecimiento económico y la tasa de ganancia en Colombia 1967-2019, Alberto Carlos Duque de Colombia muestra la misma historia que hemos encontrado en otros lugares. El artículo encuentra que el movimiento en la tasa de ganancia está “en concordancia con las predicciones de la teoría marxista y afecta positivamente la tasa de crecimiento. Y la tasa de crecimiento del PIB se ve afectada por la tasa de ganancia y la tasa de acumulación está en una relación inversa entre estas últimas variables ”.

Por lo tanto, los resultados “son consistentes con los modelos macroeconómicos marxistas revisados en este artículo y brindan apoyo empírico a los mismos. En esos modelos, la tasa de crecimiento es un proceso impulsado por el comportamiento de la tasa de acumulación y la tasa de ganancia. Nuestros análisis econométricos brindan apoyo empírico a la afirmación marxista sobre el papel fundamental de la tasa de ganancia, y sus elementos constitutivos, en la acumulación de capital y, en consecuencia, en el crecimiento económico”.

III. OTRAS REFERENCIAS BIBLIOGRÁFICAS

FUNDAMENTOS GENERALES DEL PROCESO DE ESTIMACIÓN Y PRUEBA DE HIPÓTESIS EN R STUDIO. PARTE II, CÓDIGO EN R STUDIO CON COMENTARIOS

ISADORE NABI

##ESTABLECER EL DIRECTORIO DE TRABAJO

setwd(“(…)”)

##LEER EL ARCHIVO DE DATOS. EN ESTE CASO, SUPÓNGASE QUE LOS DATOS SON DE UNA MUESTRA ALEATORIA DE 21 TIENDAS UBICADAS EN DIFERENTES PARTES DEL PAÍS Y A LAS CUALES SE LES REALIZÓ VARIOS ESTUDIOS. PARA ELLO SE MIDIERON ALGUNAS VARIABLES QUE SE PRESENTAN A CONTINUACIÓN

###- menor16= es un indicador de limpieza del lugar, a mayor número más limpio. 

###- ipc= es un indice de producto reparado con defecto, indica el % de producto que se pudo reparar y posteriormente comercializar.

###- ventas= la cantidad de productos vendidos en el último mes.

read.table(“estudios.txt”)

## CREAR EL ARCHIVO Y AGREGAR NOMBRES A LAS COLUMNAS

estudios = read.table(“estudios.txt”, col.names=c(“menor16″,”ipc”,”ventas”))

names(estudios)

nrow(estudios)

ncol(estudios)

dim(estudios)

## REVISAR LA ESTRUCTURA DEL ARCHIVO Y CALCULAR LA MEDIA, LA DESVIACIÓN ESTÁNDAR Y LOS CUANTILES PARA LAS VARIABLES DE ESTUDIO Y, ADICIONALMENTE, CONSTRÚYASE UN HISTOGRAMA DE FRECUENCIAS PARA LA VARIABLE “VENTAS”

str(estudios)

attach(estudios)

ventas

###Nota: la función “attach” sirve para adjuntar la base de datos a la ruta de búsqueda R. Esto significa que R busca en la base de datos al evaluar una variable, por lo que se puede acceder a los objetos de la base de datos simplemente dando sus nombres.

###Nota: Al poner el comando “attach”, la base de datos se adjunta a la dirección de búsqueda de R. Entonces ahora pueden llamarse las columnas de la base de datos por su nombre sin necesidad de hacer referencia a la base de datos ventas es una columna -i.e., una variable- de la tabla estudios). Así, al escribrlo, se imprime (i.e., se genera visualmente para la lectura ocular)

## CALCULAR LOS ESTADÍSTICOS POR VARIABLE Y EN CONJUNTO

mean(ventas)

sd(ventas)

var(ventas)

apply(estudios,2,mean)

apply(estudios,2,sd)

###Nota: la función “apply” sirve para aplicar otra función a las filas o columnas de una tabla de datos

###Nota: Si en “apply” se pone un “1” significa que aplicará la función indicada sobre las filas y si se pone un “2” sobre las columnas

## APLICAR LA FUNCIÓN “quantile”.

quantile(ventas) ###El cuantil de función genérica produce cuantiles de muestra correspondientes a las probabilidades dadas. La observación más pequeña corresponde a una probabilidad de 0 y la más grande a una probabilidad de 1.

apply(estudios,2,quantile)

###Nótese que para aplicar la función “apply” debe haberse primero “llamado” (i.e., escrito en una línea de código) antes la función que se aplicará (en este caso es la función “quantile”).

(qv = quantile(ventas,probs=c(0.025,0.975)))

###Aquí se está creando un vector de valores correspondientes a determinada probabilidad (las ventas, en este caso), que para este ejemplo son probabilidades de 0.025 y 0.975 de probabilidad, que expresan determinada proporción de la unidad de estudio que cumple con una determinada característica (que en este ejemplo esta proporción es el porcentaje de tiendas que tienen determinado nivel de ventas -donde la característica es el nivel de ventas-).

## GENERAR UN HISTOGRAMA DE FRECUENCIAS PARA LA COLUMNA “ventas”

hist(ventas)

abline(v=qv,col=2)

###Aquí se indica con “v” el conjunto de valores x para los cuales se graficará una línea. Como se remite a “qv” (que es un vector numérico de dos valores, 141 y 243) en el eje de las x, entonces graficará dos líneas color rojo (una en 141 y otra en 243).

###Aquí “col” es la sintaxis conocida como parte de los “parámetros gráficos” que sirve para especificar el color de las líneas

hist(ventas, breaks=7, col=”red”, xlab=”Ventas”, ylab=”Frecuencia”,

     main=”Gráfico

   Histograma de las ventas”)

detach(estudios)

###”breaks” es la indicación de cuántas particiones tendrá la gráfica (número de rectángulos, para este caso).

## GENERAR UNA DISTRIBUCIÓN N(35,4) CON NÚMEROS PSEUDOALEATORIOS PARA UN TAMAÑO DE MUESTRA n=1000

y = rnorm(1000,35,2)

hist(y)

qy = quantile(y,probs=c(0.025,0.975))

hist(y,freq=F)

abline(v=qy,col=2)

lines(density(y),col=2) #”lines” es una función genérica que toma coordenadas dadas de varias formas y une los puntos correspondientes con segmentos de línea.

## GENERAR UNA FUNCIÓN CON LAS VARIABLES n (CANTIDAD DE DATOS), m (MEDIA MUESTRAL) y  s (DESVIACIÓN ESTÁNDAR MUESTRAL) QUE ESTIME Y GRAFIQUE, ADEMÁS DE LOS CÁLCULOS DEL INCISO ANTERIOR, LA MEDIA.

plot.m = function(n,m,s) {

  y = rnorm(n,m,s)

  qy = quantile(y,probs=c(0.025,0.975))

  hist(y,freq=F)

  abline(v=qy,col=2)

  lines(density(y),col=2) ###Aquí se agrega una densidad teórica (una curva que dibuja una distribución de probabilidad -de masa o densidad- de referencia), la cual aparece en color rojo.

  mean(y)

}

## OBTENER UNA MUESTRA DE TAMAÑO n=10 DE N(100, 15^2)

plot.m(10000,100,15)

###Nótese que formalmente la distribución normal se caracteriza siempre por su media y varianza, aunque en la sintaxis “rnorm” de R se introduzca su media y la raíz de su varianza (la desviación estándar muestral)

##Generar mil repeticiones e ingresarlas en un vector. Compárense sus medias y desviaciones estándar.

n=10000; m=100;s=15

I = 1000 ###”I” son las iteraciones

medias = numeric(I)

for(i in 1:I)           {#”for” es un bucle (sintaxis usada usualmente para crear funciones personalizadas)

  sam=rnorm(n,m,s) ###Aquí se crea una variable llamada “sam” (de “sample”, i.e., muestra) que contiene una la distribución normal creada con números pseudoaleatorios.

  medias[i]=mean(sam)   } ###”sam” se almacena en la i-ésima posición la i-ésima media generada con “rnorm” que le corresponde dentro del vector numérico de iteraciones (el que contiene las medias de cada iteración) medias[i] (que contiene los elementos generados con la función “mean(sam)”).

###Un bucle es una interrupción repetida del flujo regular de un programa; pueden concebirse como órbitas (en el contexto de los sistemas dinámicos) computacionales. Un programa está diseñado para ejecutar cada línea ordenadamente (una a una) de forma secuencial 1,2,3,…,n. En la línea m el programa entiende que tiene que ejecutar todo lo que esté entre la línea n y la línea m y repetirlo, en orden secuencial, una cantidad x de veces. Entonces el flujo del programa sería, para el caso de un flujo regular  1,2,3,(4,5,…,m),(4,5,…,m),…*x,m+1,m+2,…,n.

## UTILIZAR LA VARIABLE “medias[i]” GENERADA EN EL INCISO ANTERIOR PARA DETERMINAR LA DESVIACIÓN ESTÁNDAR DE ESE CONJUNTO DE MEDIAS (ALMACENADO EN “medias[i]”) Y DETERMINAR SU EQUIVALENCIA CON EL ERROR ESTÁNDAR DE LA MEDIA (e.e.)

###Lo anterior evidentemente implica que se está construyendo sintéticamente (a través de bucles computacionales) lo que, por ejemplo, en un laboratorio botánico se registra a nivel de datos (como en el que Karl Pearson y Student hacían sus experimentos y los registraban estadísticamente) y luego se analiza en términos de los métodos de la estadística descriptiva e inferencial (puesto que a esos dominios pertenece el e.e.).

sd(medias)     ### desviación de la distribución de las medias

(ee = s/sqrt(n)  )### equivalencia teórica

## COMPARAR LA DISTRIBUCIÓN DE MEDIAS

m

mean(medias)

## GRAFICAR LA DISTRIBUCIÓN DE MEDIAS GENERADA EN EL INCISO ANTERIOR

hist(medias)

qm = quantile(medias,probs=c(0.025,0.975))

hist(medias,freq=F)

abline(v=qm,col=2)

lines(density(medias),col=2)

## GENERAR UN INTERVALO DE CONFIANZA CON UN NIVEL DE 0.95 PARA LA MEDIA DE LAS VARIABLES SUJETAS A ESTUDIO

attach(estudios)

### Percentil 0.975 de la distribución t-student para 95% de área bajo la curva

n = length(ventas) ###Cardinalidad o módulo del conjunto de datos

t = qt(0.975,n-1) ###valor t de la distribución t de student correspondiente a un nivel de probabilidad y n-1 gl

###Se denominan pruebas t porque todos los resultados de la prueba se basan en valores t. Los valores T son un ejemplo de lo que los estadísticos llaman estadísticas de prueba. Una estadística de prueba es un valor estandarizado que se calcula a partir de datos de muestra durante una prueba de hipótesis. El procedimiento que calcula la estadística de prueba compara sus datos con lo que se espera bajo la hipótesis nula (fuente: https://blog.minitab.com/en/adventures-in-statistics-2/understanding-t-tests-t-values-and-t-distributions).

###”qt” es la sintaxis que especifica un valor t determinado de la variable aleatoria de manera que la probabilidad de que esta variable sea menor o igual a este determinado valor t es igual a la probabilidad dada (que en la sintaxis de R se designa como p)

###Para más información véase https://marxianstatistics.com/2021/09/05/analisis-teorico-de-la-funcion-cuantil-en-r-studio/

###”n-1″ son los grados de libertad de la distribución t de student.

#### Error Estándar

ee = sd(ventas)/sqrt(n)

### Intervalo

mean(ventas)-t*ee

mean(ventas)+t*ee

mean(ventas)+c(-1,1)*t*ee ###c(-1,1) es un vector que se introduce artificialmente para poder construir el intervalo de confianza al 95% (u a otro nivel de confianza deseado) en una sola línea de código.

## ELABORAR UNA FUNCIÓN QUE PERMITA CONSTRUIR UN INTERVALO DE CONFIANZA AL P% DE NIVEL DE CONFIANZA PARA LA VARIABLE X

ic = function(x,p) {

  n = length(x)

  t = qt(p+((1-p)/2),n-1)

  ee = sd(x)/sqrt(n)

  mean(x)+c(-1,1)*t*ee

}

###Intervalo de 95% confianza para ventas

ic(ventas,0.95)

ic(ventas,0.99)

###El nivel de confianza hace que el intervalo de confianza sea más grande pues esto implica que los estadísticos de prueba (las versiones muestrales de los parámetros poblacionales) son más estadísticamente más robustos, por lo que su vecindario de aplicación es más amplio.

ic(ipc,0.95)

ic(menor16,0.95)

## REALIZAR LA PRUEBA DE HIPÓTESIS (PARA UNA MUESTRA) DENTRO DEL INTERVALO DE CONFIANZA GENERADO AL P% DE NIVEL DE CONFIANZA

t.test(ventas,mu=180) ###Por defecto, salvo que se cambie tal configuración, R realiza esta prueba a un nivel de confianza de 0.95.

### Realizando manualmente el cálculo anterior:

(t2=(mean(ventas)-180)/ee) ###Aquí se calcula el valor t por separado (puesto que la sintaxis “t.test” lo estima por defecto, como puede verificarse en la consola tras correr el código). Se denota con “t2” porque anteriormente se había definido en la línea de código 106 t = qt(0.975,n-1) para la construcción manual de los intervalos de confianza.

2*(1-pt(t2,20)) ###Aquí se calcula manualmente el valor p. Se multiplica por dos para tener la probabilidad acumulada total (considerando ambas colas) al valor t (t2, siendo más precisos) definido, pues esta es la definición de valor p. Esto se justifica por el hecho de la simetría geométrica de la distribución normal, la cual hace que la probabilidad acumulada (dentro de un intervalo de igual longitud) a un lado de la media sea igual a la acumulada (bajo la condición especificada antes) a la derecha de la media.

2*(pt(-t2,20)) ###Si el signo resultante de t fuese negativo. Además, 20 es debido a n-1 = 21-1 = 20.

###La sintaxis “pt” calcula el valor de la función de densidad acumulada (cdf) de la distribución t de Student dada una determinada variable aleatoria x y grados de libertad df (degrees of freedom, equivalente a gl en español), véase https://www.statology.org/working-with-the-student-t-distribution-in-r-dt-qt-pt-rt/

## CREAR UNA VARIABLE QUE PERMITA SEPARAR ESPACIALMENTE (AL INTERIOR DE LA GRÁFICA QUE LOS REPRESENTA) AQUELLOS ipc MENORES A UN VALOR h (h=117) DE AQUELLOS QUE SON IGUALES O MAYORES QUE h (h=117)

(ipc1 = 1*(ipc<17)+2*(ipc>=17))

ipc2=factor(ipc1,levels=c(1,2),labels=c(“uno”,”dos”))

plot(ipc2,ipc)

abline(h=17,col=2)

## GENERAR GRÁFICO DE DIAMENTE CON LOS INTERVALOS DE CONFIANZA AL 0.95 DE NdC CENTRADOS EN LAS MEDIAS DE CADA GRUPO CREADO ALREDEDOR DE 17 Y UN BOX-PLOT

library(gplots)

plotmeans(ventas~ipc2) ###Intervalos del 95% alrededor de la media (GRÁFICO DE DIMANTES)

boxplot(ventas~ipc2)

## REALIZAR LA PRUEBA DE HIPÓTESIS DE QUE LA MEDIA ES LA MISMA PARA LOS DOS GRUPOS GENERADOS ALREDEDOR DE h=17

(med = tapply(ventas,ipc1,mean))

(dev = tapply(ventas,ipc1,sd))

(var = tapply(ventas,ipc1,var))

(n   = table(ipc1))

dif=med[1]-med[2]

###La sintaxis “tapply” aplica una función a cada celda de una matriz irregular (una matriz es irregular si la cantidad de elementos de cada fila varía), es decir, a cada grupo (no vacío) de valores dados por una combinación única de los niveles de ciertos factores.

### PRUEBA DE HIPÓTESIS EN ESCENARIO 1: ASUMIENDO VARIANZAS IGUALES (SUPUESTO QUE EN ESCENARIOS REALES DEBERÁ VERIFICARSE CON ANTELACIÓN)

varpond= ((n[1]-1)*var[1] + (n[2]-1)*var[2])/(n[1]+n[2]-2) ###Aquí se usa una varianza muestral ponderada como medida más precisa (dado que el tamaño de los grupos difiere) de una varianza muestral común entre los dos grupos construidos alrededor de h=17

e.e=sqrt((varpond/n[1])+(varpond/n[2]))

dif/e.e

t.test(ventas~ipc1,var.equal=T)

t.test(ventas~ipc1)  #Por defecto la sintaxis “t.test” considera las varianzas iguales, por lo que en un escenario de diferentes varianzas deberá ajustarse esto como se muestra a continuación.

### PRUEBA DE HIPÓTESIS EN ESCENARIO 2: ASUMIENDO VARIANZAS DESIGUALES (AL IGUAL QUE ANTES, ESTO DEBE VERIFICARSE)

e.e2=sqrt((var[1]/n[1])+(var[2]/n[2]))

dif/e.e2

a=((var[1]/n[1]) + (var[2]/n[2]))^2

b=(((var[1]/n[1])^2)/(n[1]-1)) +(((var[2]/n[2])^2)/(n[2]-1))

(glmod=a/b)

t.test(ventas~ipc1,var.equal=F)

###Para aceptar o rechazar la hipótesis nula el intervalo debe contener al cero (porque la Ho afirma que la verdadera diferencia en las medias -i.e., su significancia estadística- es nula).

###Conceptualmente hablando, una diferencia estadísticamente significativa expresa una variación significativa en el patrón geométrico que describe al conjunto de datos. Véase https://marxianstatistics.com/2021/08/27/modelos-lineales-generalizados/. Lo que define si una determinada variación es significativa o no está condicionado por el contexto en que se realiza la investigación y la naturaleza misma del fenómeno estudiado.

## REALIZAR PRUEBA F PARA COMPARAR LA VARIANZA DE LOS GRUPOS Y LA PROBABILIDAD ASOCIADA

(razon.2 = var[1]/var[2]) ###Ratio de varianzas (asumiendo que las varianzas poblacionales son equivalentes a la unidad, en otro caso su estimación sería matemáticamente diferente; véase https://sphweb.bumc.bu.edu/otlt/mph-modules/bs/bs704_power/bs704_power_print.html y https://stattrek.com/online-calculator/f-distribution.aspx).

pf(razon.2,n[1]-1,n[2]-1) ###Al igual que “pt” (para el caso de la t de Student que compara medias de dos grupos o muestras), “pf” en el contexto de la prueba F (que compara la varianza de dos grupos o muestras) calcula la probabilidad acumulada que existe hasta determinado valor.

###La forma general mínima (más sintética) de la sintaxis “pf” es “pf(x, df1, df2)”, en donde “x” es el vector numérico (en este caso, de un elemento), df1 son los gl del numerador y df2 son los grados de libertad del denominador de la distribución F (cuya forma matemática puede verificarse en la documentación de R; véase https://stat.ethz.ch/R-manual/R-devel/library/stats/html/Fdist.html).

(2*pf(razon.2,n[1]-1,n[2]-1)) ###Aquí se calcula el valor p manualmente.

###Realizando de forma automatizada el procedimiento anterior:

var.test(ventas~ipc1)

detach(estudios)

###Para aceptar o rechazar la hipótesis nula el intervalo debe contener al 1 porque la Ho afirma que la varianza de ambas muestras es igual (lo que implica que su cociente o razón debe ser 1), lo que equivale a afirmar que la diferencia real entre desviaciones (la significancia estadística de esta diferencia) es nula.

## EN EL ESCENARIO DEL ANÁLISIS DE MUESTRAS PAREADAS, ANALIZAR LOS DATOS SOBRE EL EFECTO DE DOS DROGAS EN LAS HORAS DE SUEÑO DE UN GRUPO DE PACIENTES (CONTENIDOS EN EL ARCHIVO “sleep” DE R)

attach(sleep) ###”sleep” es un archivo de datos nativo de R, por ello puede “llamarse” sin especificaciones de algún tipo.

plot(extra ~ group)

plotmeans(extra ~ group,connect=F)  ###Intervalos del 95% alrededor de la media. El primer insumo (entrada) de la aplicación “plotmeans” es cualquier expresión simbólica que especifique la variable dependiente o de respuesta (continuo) y la variable independiente o de agrupación (factor). En el contexto de una función lineal, como la función “lm()” que es empleada por “plotmeans” para graficar (véase la documentación de R sobre “plotmeans”), sirve para separar la variable dependiente de la o las variables independientes, las cuales en este caso de aplicación son los factores o variables de agrupación (puesto que se está en el contexto de casos clínicos y, en este contexto, las variables independientes son las variables que sirven de criterio para determinar la forma de agrupación interna del conjunto de datos; este conjunto de datos contiene las observaciones relativas al efecto de dos drogas diferentes sobre las horas de sueño del conjunto de pacientes-).

A = sleep[sleep$group == 1,] ###El símbolo “$” sirve para acceder a una variable (columna) de la matriz de datos, en este caso la número 1 (por ello el “1”).

B = sleep[sleep$group == 2,]

plot(1:10,A$extra,type=”l”,col=”red”,ylim=c(-2,7),main=”Gráfico 1

Horas de sueño entre pacientes con el tratamiento A y B”,ylab=”Horas”,xlab=”Numero de paciente”,cex.main=0.8)

lines(B$extra,col=”blue”)

legend(1,6,legend=c(“A”,”B”),col=c(“red”,”blue”),lwd=1,box.col=”black”,cex=1)

t.test(A$extra,B$extra)

t.test(A$extra,B$extra,paired=T)

t.test(A$extra-B$extra,mu=0)

###Una variable de agrupación (también llamada variable de codificación, variable de grupo o simplemente variable) clasifica las observaciones dentro de los archivos de datos en categorías o grupos. Le dice al sistema informático (sea cual fuere) cómo el usuario ha clasificado los datos en grupos. Las variables de agrupación pueden ser categóricas, binarias o numéricas.

###Cuando se desea realizar un comando dentro del texto (en un contexto de formato Rmd) se utiliza así,por ejemplo se podría decir que la media del sueño extra es `r mean(sleep$extra)` y la cantidad de datos son `r length(sleep$extra)`

## ESTIMACIÓN DE LA POTENCIA DE UNA PRUEBA DE HIPÓTESIS (PROBABILIDAD BETA DE COMETER ERROR TIPO II)

library(pwr) ###”pwr” es una base de datos nativa de R

delta=3 ###Nivel de Resolución de la prueba. Para un valor beta (probabilidad de cometer error tipo II) establecido el nivel de resolución es la distancia mínima que se desea que la prueba sea capaz de detectar, es decir, que si existe una distancia entre los promedios tal que la prueba muy probablemente rechace la hipótesis nula Ho. Para el cálculo manual de la probabilidad beta véase el complemento de este documento (FUNDAMENTOS GENERALES DEL PROCESO DE ESTIMACIÓN Y PRUEBA DE HIPÓTESIS EN R STUDIO. PARTE I, TEORÍA ESTADÍSTICA)

s=10.2 ###Desviación estándar muestral

(d=delta/s) #Tamano del efecto.

pwr.t.test(n=NULL,d=d,power =0.9,type=”one.sample”)

## ESTIMAR CON EL VALOR ÓPTIMO PARA EL NIVEL DE RESOLUCIÓN, PARTIENDO DE n=40 Y MANTENIENDO LA POTENCIA DE 0.9

(potencia=pwr.t.test(n=40,d=NULL,power =0.9,type=”one.sample”))

potencia$d*s  #Delta

## GRAFICAR LAS DIFERENTES COMBINACIONES DE TAMAÑO DE MUESTRA Y NIVEL DE RESOLUCIÓN PARA UNA POTENCIA DE LA PRUEBA FIJA

s=10.2

deltas=seq(2,6,length=30)

n=numeric(30)

for(i in 1:30) {

  (d[i]=deltas[i]/s)

  w=pwr.t.test(n=NULL,d=d[i],power =0.9,type=”one.sample”)

  n[i]=w$n

}

plot(deltas,n,type=”l”)

## SUPÓNGASE QUE SE QUIERE PROBAR SI DOS GRUPOS PRESENTAN DIFERENCIAS ESTADÍSTICAMENTE SIGNIFICATIVAS EN LOS NIVELES PROMEDIO DE AMILASA, PARA LO CUAL SE CONSIDERA IMPORTANTE DETECTAR DIFERENCIAS DE 15 UNIDADES/ML O MÁS ENTRE LOS PROMEDIOS

s2p=290.9  ###Varianza ponderada de los dos grupos

(sp=sqrt(s2p)) ###Desviación estándar ponderada de los dos grupos

delta=15

(d=delta/sp)

pwr.t.test(n=NULL,d=d,power =0.9,type=”two.sample”)

ENCUESTA NACIONAL SOBRE LOS ASPECTOS DE LA VIRTUALIDAD VINCULADOS CON LA PANDEMIA DEL COVID-19 (ENAVIRPA 2021)

ISADORE NABI

VII. REFERENCIAS

Aldrich, J. H., & Nelson, F. D. (1984). Linear Probability, Logit, and Probit Models. Beverly Hills: Sage University Papers Series. Quantitative Applications in the Social Sciences.

Allen, M. (2017). The SAGE Encyclopedia of COMMUNICATION RESEARCH METHODS. London: SAGE Publications, Inc.

AMERICAN PSYCHOLOGICAL ASSOCIATION. (2021, Julio 15). level. Retrieved from APA Dictionary of Pyschology: https://dictionary.apa.org/level

AMERICAN PYSCHOLOGICAL ASSOCIATION. (2021, Julio 15). factor. Retrieved from APA Dictionary of Pyschology: https://dictionary.apa.org/factor

AMERICAN PYSCHOLOGY ASSOCIATION. (2021, Julio 15). logistic regression (LR). Retrieved from APA Dictionary of Pyschology: https://dictionary.apa.org/logistic-regression

Barrios, J. (2019, Julio 19). La matriz de confusión y sus métricas . Retrieved from Health BIG DATA: https://www.juanbarrios.com/la-matriz-de-confusion-y-sus-metricas/

Bhuptani, R. (2020, Julio 13). Quora. Retrieved from What is the difference between linear regression and least squares?: https://www.quora.com/What-is-the-difference-between-linear-regression-and-least-squares

Birnbaum, Z. W., & Sirken, M. G. (1950, Marzo). Bias Due to Non-Availability in Sampling Surveys. Journal of the American Statistical Association, 45(249), 98-111.

Burrus, C. S. (2021, Julio 7). Iterative Reweighted Least Squares. Retrieved from https://cnx.org/exports/92b90377-2b34-49e4-b26f-7fe572db78a1@12.pdf/iterative-reweighted-least-squares-12.pdf

Centro Centroamericano de Población. (2021, Abril 28). Variables y escalas de medición. Retrieved from Universidad de Costa Rica: https://ccp.ucr.ac.cr/cursos/epidistancia/contenido/2_escmed.html

Cochran, W. G. (1991). Técnicas de Muestreo. México, D.F.: Compañía Editorial Continental.

Departamento Administrativo Nacional de Estadística. (2003). Metodología de Diseño Muestral. Bogotá: Dirección Sistema Nacional de Información Estadística. Retrieved from https://www.dane.gov.co/files/EDI/anexos_generales/Metodologia_diseno_muestral_anexo1.pdf?phpMyAdmin=a9ticq8rv198vhk5e8cck52r11

Díaz-Narváez, V. P. (2017). Regresión logística y decisiones clínicas. Nutrición Hospitalaria, 34(6), 1505-1505. Retrieved from https://scielo.isciii.es/pdf/nh/v34n6/36_diaz.pdf

Google Developers. (2021, Julio 19). Clasificación: Exactitud. Retrieved from https://developers.google.com/machine-learning/crash-course/classification/accuracy

Greene, W. (2012). Econometric Analysis (Séptima ed.). Harlow, Essex, England: Pearson Education Limited.

Gujarati, D., & Porter, D. (2010, Julio 8). Econometría (Quinta ed.). México, D.F.: McGrawHill Educación. Retrieved from Homocedasticidad.

Haskett, D. R. (2014, Octubre 10). “Mitochondrial DNA and Human Evolution” (1987), by “Mitochondrial DNA and Human Evolution” (1987), by Rebecca Louise Cann, Mark Stoneking, and Allan Charles Wilson. Retrieved from The Embryo Project Encyclopedia: https://embryo.asu.edu/pages/mitochondrial-dna-and-human-evolution-1987-rebecca-louise-cann-mark-stoneking-and-allan

Hastie, T., Tibshirani, R., & Friedman, J. (2017). The Elements of Statistical Learning. Data Mining, Inference, and Prediction (Segunda ed.). New York: Springer.

Instituto dei Sistemi Complessi. (2021, Febrero 27). Topolical vs Metric Distance. Retrieved from Biological Systems: https://www.isc.cnr.it/research/topics/physical-biology/biological-systems/topological-vs-metric-distance/

Instituto Nacional de Estadística y Censos de Costa Rica. (2016, Julio). Manual de Clasificación Geográfica con Fines Estadísticos de Costa Rica. Retrieved from Biblioteca Virtual: https://www.inec.cr/sites/default/files/documetos-biblioteca-virtual/meinstitucionalmcgfecr.pdf

Instituto Nacional de Estadística y Censos de Costa Rica. (2019). ENIGH. 2018. Cuadros sobre ingresos de los hogares. San José: INEC. Retrieved from https://www.inec.cr/sites/default/files/documetos-biblioteca-virtual/reenigh2018-ingreso.xlsx

Instituto Nacional de Estadística y Censos de Costa Rica. (2021, 7 14). Factor de Expansión. Retrieved from INEC: https://www.inec.cr/sites/default/files/_book/F.html

Instituto Nacional de Estadística y Censos de la República Argentina. (2019). Encuesta de Actividades de Niños, Niñas y Adolescentes 2016-2017. Factores de expansión, estimación y cálculo de los errores por muestra para el dominio rural. Buenos Aires: Ministerio de Hacienda. Retrieved from https://www.indec.gob.ar/ftp/cuadros/menusuperior/eanna/anexo_bases_eanna_rural.pdf

James, G., Witten, D., Hastie, T., & Tibshirani, R. (2013). An Introduction to Statistical Learning with Applications in R. New York: Springer.

Jose, K. (2020, Junio 27). Graph Theory | Isomorphic Trees. Retrieved from Towards Data Science: https://towardsdatascience.com/graph-theory-isomorphic-trees-7d48aa577e46

Köhler, T. (2016). Income and Wealth Poverty in Germany. SOEP papers on Multidisciplinary Panel Data Research, 1-48. Retrieved from https://www.diw.de/documents/publikationen/73/diw_01.c.540534.de/diw_sp0857.pdf

Kolmogórov, A. N., & Fomin, S. V. (1978). Elementos de la Teoría de Funciones y del Análisis Funcional (Tercera ed.). (q. e.-m. Traducido del ruso por Carlos Vega, Trans.) Moscú: MIR.

Liao, T. F. (1994). INTERPRETING PROBABILITY MODELS. Logit, Probit, and Other Generalized Linear Models. Iowa: Sage University Papers Series. Quantitative Applications in the Social Sciences.

Lipschutz, S. (1992). Álgebra Lineal. Madrid: McGraw-Hill.

Lohr, S. L. (2019). Sampling: Design and Analysis (Segunda ed.). Boca Raton: CRC Press.

Lohr, S. L. (2019). Sampling: Design and Analysis (Segunda ed.). Boca Raton: CRC Press.

McCullagah, P., & Nelder, J. A. (1989). Generalized Linear Models (Segunda ed.). London: Chapman and Hall.

McCullagh, P., & Nelder, J. A. (1989). Generalized Linear Models (Segunda ed.). London: Chapman and Hall.

Nelder, J. A., & Wedderburn, R. W. (1972). Generalized Linear Models. Journal of the Royal Statistical Society, 135(3), 370-384.

Online Stat Book. (2021, Julio 15). Levels of an Independent Variable. Retrieved from Independent and dependent variables: https://onlinestatbook.com/2/introduction/variables.html

Patil, G. P., & Shorrock, R. (1965). On Certain Properties of the Exponential-type Families. Journal of the Royal Statistical, 27(1), 94-99.

Perry, J. (2014, Abril 2). NORM TO/FROM METRIC. Retrieved from The University of Southern Mississippi: https://www.math.usm.edu/perry/old_classes/mat681sp14/norm_and_metric.pdf

Ritchey, F. (2002). ESTADÍSTICA PARA LAS CIENCIAS SOCIALES. El potencial de la imaginación estadística. México, D.F.: McGRAW-HILL/INTERAMERICANA EDITORES, S.A. DE C.V.

Samuels, S. (2014, 11 19). Can I get to an approximation of the population with knowledge of the expansion factor? Retrieved from Cross Validated. StackExchange: https://stats.stackexchange.com/questions/124750/can-i-get-to-an-approximation-of-the-population-with-knowledge-of-the-expansion

StackExchange Cross Validated. (2017, Febrero 2). “Least Squares” and “Linear Regression”, are they synonyms? Retrieved from What is the difference between least squares and linear regression? Is it the same thing?: https://stats.stackexchange.com/questions/259525/least-squares-and-linear-regression-are-they-synonyms

StackExchange Data Science. (2016, Junio 19). Is GLM a statistical or machine learning model? Retrieved from https://datascience.stackexchange.com/questions/488/is-glm-a-statistical-or-machine-learning-model

StackOverFlow. (2014, Marzo 15). Supervised Learning, Unsupervised Learning, Regression. Retrieved from https://stackoverflow.com/questions/22419136/supervised-learning-unsupervised-learning-regression

TalkStats. (2011, Noviembre 29). SPSS. Retrieved from Forums: http://www.talkstats.com/threads/what-is-the-difference-between-a-factor-and-a-covariate-for-multinomial-logistic-reg.21864/

UNITED NATIONS ECONOMIC COMMISSION FOR EUROPE. (2017). Guide on Poverty Measure. New York and Geneva: UNITED NATIONS. Retrieved from https://ec.europa.eu/eurostat/ramon/statmanuals/files/UNECE_Guide_on_Poverty_Measurement.pdf

van den Berg, R. G. (2021, Julio 15). Measurement Levels – What and Why? Retrieved from SPSS Tutorials: https://www.spss-tutorials.com/measurement-levels/

Weisstein, E. W. (2021, Julio 15). Sigmoid Function. Retrieved from MathWorld – A Wolfram Web Resource: https://mathworld.wolfram.com/SigmoidFunction.html

Weisstein, E. W. (2021, Mayo 21). Sigmoid Function. Retrieved from MathWorld – A Wolfram Web Resource: https://mathworld.wolfram.com/SigmoidFunction.html

Weisstein, E. W. (2021, Mayo 18). Smooth Function. Retrieved from Wolfram MathWorld – A Wolfram Web Resource: https://mathworld.wolfram.com/SmoothFunction.html

Wikimedia. (2021, Abril 6). Commons. Retrieved from Wikipedia: https://upload.wikimedia.org/wikipedia/commons/b/bf/Undirected.svg

Wikipedia. (2021, Julio 6). Graph isomorphism. Retrieved from Morphism: https://en.wikipedia.org/wiki/Graph_isomorphism

Wikipedia. (2021, Mayo 21). Iterative proportional fitting. Retrieved from Statistical algorithms: https://en.wikipedia.org/wiki/Iterative_proportional_fitting

Wikipedia. (2021, Febrero 25). Iteratively reweighted least squares. Retrieved from Least squares: https://en.wikipedia.org/wiki/Iteratively_reweighted_least_squares

Wikipedia. (2021, Julio 13). Logistic function. Retrieved from Growth curves: https://en.wikipedia.org/wiki/Logistic_function

Wikipedia. (2021, Mayo 22). Logistic regression. Retrieved from Regression models: https://en.wikipedia.org/wiki/Logistic_regression

Wikipedia. (2021, Junio 14). Logit. Retrieved from Special functions: https://en.wikipedia.org/wiki/Logistic_function

Wikipedia. (2021, Julio 8). Lp space. Retrieved from Measure theory: https://www.wikiwand.com/en/Lp_space

Wikipedia. (2021, Abril 15). Odds. Retrieved from Wagering: https://en.wikipedia.org/wiki/Odds

Wikipedia. (2021, Julio 10). Precision and recall. Retrieved from Bioinformatics: https://en.wikipedia.org/wiki/Precision_and_recall

Wooldridge, J. (2010). Econometric Analysis of Cross Section and Panel Data (Segunda ed.). Cambridge, Massachusetts: MIT Press.

GENERALIDADES DE LA TEORÍA DEL APRENDIZAJE ESTADÍSTICO

ISADORE NABI

VI. Referencias

Barrios, J. (19 de Julio de 2019). La matriz de confusión y sus métricas . Obtenido de Health BIG DATA: https://www.juanbarrios.com/la-matriz-de-confusion-y-sus-metricas/

Google Developers. (19 de Julio de 2021). Clasificación: Exactitud. Obtenido de https://developers.google.com/machine-learning/crash-course/classification/accuracy

Hastie, T., Tibshirani, R., & Friedman, J. (2017). The Elements of Statistical Learning. Data Mining, Inference, and Prediction (Segunda ed.). New York: Springer.

James, G., Witten, D., Hastie, T., & Tibshirani, R. (2013). An Introduction to Statistical Learning with Applications in R. New York: Springer.

StackExchange Data Science. (19 de Junio de 2016). Is GLM a statistical or machine learning model? Obtenido de https://datascience.stackexchange.com/questions/488/is-glm-a-statistical-or-machine-learning-model

StackOverFlow. (15 de Marzo de 2014). Supervised Learning, Unsupervised Learning, Regression. Obtenido de https://stackoverflow.com/questions/22419136/supervised-learning-unsupervised-learning-regression

Wikipedia. (10 de Julio de 2021). Precision and recall. Obtenido de Bioinformatics: https://en.wikipedia.org/wiki/Precision_and_recall

JUSTIFICACIÓN TEÓRICA DEL USO DE MÉTODOS DE REGRESIÓN SOBRE INSTRUMENTOS PSICOMÉTRICOS: EL CASO DE LA ENCUESTA.

ISADORE NABI

Como señala (Cochran, 1991, pág. 195), “Uno de los rasgos de la estadística teórica es la creación de una vasta teoría que discute los métodos de obtención de buenas estimaciones a partir de los datos. En el desarrollo de la teoría, específicamente para encuestas de muestreo, se han utilizado poco estos conocimientos, por dos causas principales. Primero, en las encuestas que contienen un gran número de atributos, es una gran ventaja, aunque se disponga de máquinas computadoras, el poder utilizar procedimientos de estimación que requieran poco más que simples sumas, en tanto que los métodos superiores de estimación de la estadística teórica, como lo son la máxima verosimilitud, podrían necesitar una serie de aproximaciones sucesivas antes de encontrar una estimación (…) La mayoría de los métodos de investigación de la estadística teórica suponen que se conoce la forma funcional de la distribución de frecuencia que sigue a los datos de la muestra, y el método de estimación de estimación está cuidadosamente engranado de acuerdo a este tipo de distribución. En la teoría de encuestas por muestreo se ha preferido hacer, cuando más, algunos supuestos respecto a esta distribución de frecuencia. Esta actitud resulta razonable para tratar con encuestas en las que el tipo de distribución puede variar de un atributo a otro, y cuando no deseamos detenernos a examinarlas todas, antes de decidir cómo hacer cada estimación. En consecuencia, actualmente, las técnicas de estimación para el trabajo de encuestas por muestreo son de alcances restringidos. Ahora consideraremos dos técnicas, el método de razón (…) y el método de regresión línea (…)” Así, “Al igual que la estimación de razón, la regresión lineal se ha diseñado para incrementar la precisión en el uso de una variable auxiliar  correlacionada con .” (Cochran, 1991, pág. 239).