SciELO - Scientific Electronic Library Online

 
vol.11 número1Coleópteros acuáticos y su relación con la dinámica fisicoquímica del Río Cuautla (Tramo Tetelcingo-Anenecuilco), Morelos, MéxicoCambio estacional de clorofila a en la Bahía de La Paz, B. C. S., México índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

  • No hay artículos similaresSimilares en SciELO

Compartir


Hidrobiológica

versión impresa ISSN 0188-8897

Hidrobiológica vol.11 no.1 Ciudad de México jun. 2001

 

Control óptimo y manejo de pesquerías I: Marco conceptual y métodos formales

 

Héctor Echavarría Heras1, William J. Reed2, Dora Julia Borbón González1,3 y Cecilia Leal Ramírez1

 

1 Grupo de Modelación y Análisis Teórico. CICESE Depto. de Ecología. Apdo. Postal 2732 Ensenada B. C. México. e-mail: hechavar@cicese.mx.

2 Department of Mathematics. University of Victoria. Victoria British Columbia, Canada.

3 Departamento de Matemáticas. Universidad de Sonora. Hermosillo Sonora. México.

 

Recibido: 14 de julio de 2000
Aceptado: 16 de enero de 2001

 

Resumen

Se introducen en esta primera parte las ideas generales que hacen posible la aplicación de métodos de optimización dinámica al manejo de una pesquería que explota de modo fundamental a una población uniespecífica. Se presenta una derivación heurística de la ecuación de Bellman de la programación dinámica. Un tratamiento similar es utilizado para establecer el principio del máximo de Pontryagin. Este se usa para obtener la estrategia de control que maximiza el beneficio social derivado de la explotación. La optimalidad de dicha estrategia se corrobora en un primer apéndice mediante el uso de procedimientos directos. La aplicación de métodos de programación dinámica para obtener la estrategia arriba mencionada en el caso autónomo y bajo la aplicación de controles de impulso se presenta en un segundo apéndice.

Palabras clave: Modelación bioeconómica, pesquerías, métodos formales.

 

Abstract

This introductory part of our treatise presents the general ideas behind the application of dynamic optimization procedures to the management of a fishery. A heuristic derivation of Bellman's equation of dynamic programming is provided. The Pontryagin Maximum Principle is also justified at that level of presentation. This last result is applied to characterize the control strategy that induces the maximum social benefit derived from the fishery. The optimality of the derived strategy is corroborated by means of a direct analysis and included in a first appendix. Invoking impulse controls in the autonomous case; in a second one we include an example of the use of dynamic programming methods for the derivation of the above quoted strategy.

Key words: Bioeconomical models, fisheries, theoretical tools.

 

Introducción

En los sistemas de aprovechamiento de recursos naturales renovables el recurso se ubica en una compleja red de interacciones con otros seres vivos influenciadas por la variabilidad del medio ambiente. La estimación de los niveles de biomasa que pueden ser usufructuados a fin de obtener el máximo beneficio social es difícil. Necesariamente la instrumentación de estrategias de manejo racional requiere del consumo de metodologías analíticas.

El problema del manejo racional de un recurso pesquero, conduce necesariamente a la utilización de modelos holistas. Estos consideran un gran número de variables. Las complicaciones relacionadas con el acopio de la información para su identificación hacen necesaria la introducción de simplificaciones adicionales. En este escenario, se utilizan alternativamente modelos reduccionistas conocidos como modelos de producción excedente o simplemente de producción (Schaefer, 1954). En ellos la biomasa aparece como una variable agregada. A pesar de tal limitación, en muchas ocasiones representan la única herramienta analítica disponible e incluso se considera que en algunos casos poseen ventajas sobre modelos basados en representaciones de la dinámica poblacional del recurso explotado basadas en la estructura de edades (Ludwig and Walters, 1985). En general pretenden auxiliar al biólogo pesquero en la tarea de determinar la relación directa entre la porción que puede extraerse sostenidamente de una población y el tamaño de la misma. Poseen además la ventaja de permitir obtener resultados analíticos que hacen posible el diseño de criterios de manejo que pueden complementar resultados obtenidos por otros métodos.

El objetivo de esta primera parte es presentar el marco conceptual y las herramientas formales que permiten, a partir de los modelos de producción, desarrollar métodos de optimización dinámica aplicados al manejo de recursos pesqueros. Dichos métodos se ubican principalmente en la teoría del control óptimo y en la programación dinámica. Se hará énfasis más bien en desarrollos heurísticos que en aspectos formales. Se abordarán únicamente problemas determinísticos y a tiempo continuo. No obstante, la revisión del material presentado permitirá al lector la comprensión de problemas tanto en mayores dimensiones como de carácter estocástico.

Sin lugar a dudas la teoría del control óptimo es una extensión del cálculo de variaciones. Con la invención del cálculo por Newton y Leibnitz se estimuló grandemente el estudio de problemas variacionales. Los trabajos de Euler en 1744 dieron al cálculo de variaciones la coherencia teórica que lo consolidó como una poderosa herramienta científica. Su utilidad ha sido demostrada en el establecimiento del principio de Hamilton, la teoría de la relatividad general de Einstein y la ecuación de onda de Schröedinger (Simmons, 1972). La mayoría de los resultados relacionados con el establecimiento de condiciones suficientes para la optimalidad en un problema de control a tiempo continuo fueron establecidos antes de 1940 (Bliss, 1946).

Al inicio de la década de los cincuenta se formuló el principio de optimalidad. Su comunicación formal apareció en el tratado de Bellman sobre programación dinámica (Bellman, 1957). Aplicaciones al tratamiento de problemas de control automático motivaron el establecimiento en 1953 del principio del máximo por Pontryagin (Pontryagin et al., 1962). Puede afirmarse sin lugar a duda que en dicha década se desarrollaron los resultados fundamentales de la teoría del control óptimo. Se considera que ésta aparece ya claramente delineada en los trabajos de D. Bushaw (1958), quien conjeturó el principio del control alternante (Bang-Bang) para problemas lineales. La conjetura de Bushaw fue demostrada poco después por J. P. La Salle en su ensayo sobre control óptimo a tiempo continuo (La Salle, 1960).

La teoría del control óptimo se fundamenta en el Principio del Máximo de Pontryagin, o en variantes del mismo. A los desarrollos en esta línea se les denominan a veces métodos variacionales debido a su proximidad con el cálculo de variaciones; véase, por ejemplo, Kamien y Schwartz (1981). La programación dinámica se basa en el principio de optimalidad (véase Casti, 1989). La teoría del control óptimo es de la de mayor utilidad para resolver los problemas deterministas en tiempo continuo. Existe un principio discreto del máximo, que se emplea a veces en problemas deterministas en tiempo discreto, pero normalmente es la programación dinámica el método de preferencia en tales situaciones. En los problemas estoclásticos se emplea invariablemente la programación dinámica; aunque existe un principio estocástico del máximo, parece ser de poca utilidad en la resolución de problemas prácticos.

Las aplicaciones de la teoría del control óptimo en problemas ecológicos aparecen a finales de las décadas de los sesenta (Watt, 1968). El problema de la explotación óptima de una población piscícola fue abordado inicialmente por B. S. Goh (Goh, 1969). Sin embargo, la aplicación de dichas metodologías al manejo racional de un recurso pesquero se desarrolló a partir de la contribución de H. S. Gordon, sobre la explotación de un recurso de acceso irrestricto, en la cual se introduce el concepto de equilibrio bionómico (Gordon, 1954). Cabe también señalar que la aportación de M. B. Schaefer sobre dinámica de poblaciones explotadas bajo influencia de variables económicas que introdujo el concepto de máximo rendimiento sustentable (Schaefer, 1957), contribuyó fuertemente al desarrollo de metodologías basadas en la teoría de control óptimo. La conceptualización bioeconómica para el problema de manejo de un recurso aparece por primera vez en los trabajos de C. W. Clark sobre políticas económicas óptimas y su importancia para la utilización de recursos renovables (véase Clark, 1990). Podría decirse que estos últimos desarrollos corresponden con el marco conceptual más general para el diseño de estrategias de control óptimo para sistemas de explotación piscícola.

En la segunda sección se presenta el planteamiento del problema general de control unidimensional a tiempo continuo. Como un caso particular, en la tercera sección se presenta el problema de control de sistema de explotación de una pesquería uniespecífica. La cuarta sección describe las ideas que fundamentan el principio de optimalidad y la programación dinámica. En una quinta sección se fundamenta a nivel heurístico el principio del máximo de Pontryagin. La caracterización de la estrategia de control para una pesquería uniespecífica basada en los desarrollos introducidos en las secciones anteriores se deriva en la sexta sección. La optimalidad de dicha estrategia se corrobora en un primer apéndice utilizando métodos directos. Un segundo apéndice ilustra el uso de resultados de programación dinámica para demostrar formalmente la existencia de la estrategia de control arriba señalada, en el caso autónomo y bajo la suposición de que es posible aplicar controles de impulso (véase Clark, 1990, pág. 58).

 

Planteamiento general del problema de control unidimensional a tiempo continuo

El caso general de un problema de control óptimo unidimensional a tiempo continuo, se define especificando un sistema dinámico que expresa la derivada con respecto al tiempo de una variable de interés x(t) en función de cantidades pertinentes. Se supone que la acción de control se lleva a cabo sobre un intervalo [t0, T] con t0 ≥ 0, conociéndose a T como extremo final del horizonte temporal de explotación, pudiendo éste ser finito o infinito. Sobre la variable x(t) se incluyen generalmente una condición inicial y una final en los extremos del intervalo [T0, T] respectivamente. Suele considerarse además, algún tipo de restricción sobre la variación de x(t). Este tipo de restricciones se conocen como restricciones de variación de estado.

El sistema dinámico incluye una función de control u(t) que pertenece a una colección particular conocida como conjunto de admisibilidad. Cada caracterización de u(t) determina las propiedades de la solución x(t). En este sentido, x(t) se denomina respuesta a una acción de control u(t). Usualmente el conjunto de funciones es definido por propiedades de continuidad y diferenciabilidad en conjunción con alguna restricción sobre la variación de la función de control. Por lo general las restricciones sobre la variación de x(t) y u(t) se expresan implícitamente. Más aún en ciertas aplicaciones se hace necesario establecer un tipo de restricción conjunta para x(t) y u(t).

El problema de control puede incluir un término definido en función del valor x(T) de la respuesta en el extremo final del horizonte temporal de explotación que se conoce como valor de liquidación. Se expresa generalmente en términos de una función implícita de T y x(T). El sistema dinámico en conjunción con las condiciones temporales define un problema con condiciones de frontera. En el caso más general las restricciones pueden incluir desigualdades. Finalmente se desea resolver el problema de obtener el máximo (o mínimo) valor posible de una funcional definida en términos de la función de control u(t) la respuesta x(t) y la condición terminal. Usualmente dicha funcional respuesta alguna cantidad de interés que se obtiene de la variación de la respuesta sobre el intervalo de control. En resumen el problema de control unidimensional a tiempo continuo que abordaremos, se expresa en forma general mediante las siguientes ecuaciones:

El problema de optimización (2.8) puede ser también definido como la obtención del mínimo de la funcional objetivo. Sin pérdida de generalidad en lo que resta del presente trabajo supondremos que x(t) y u(t) son funciones reales de variable real. La extensión de los resultados aquí mencionados a dimensiones mayores es inmediata (véase Fleming y Rishel, 1975).

La maximización de la funcional (2.7) sujeta a la restricción dinámica (2.1) admite diversas formas. Estas se determinan en función de las hipótesis establecidas sobre el dominio de controles admisibles , las propiedades del estado x(t) principalmente su variación, del grado de suavidad de las funciones f y l o bien que T sea finito o infinito. La función de control óptimo que maximiza la funcional objetivo (2.7) se denota mediante u*(t). Cuando ésta se utiliza en el sistema dinámico (2.1) la correspondiente función de respuesta se denota mediante x*(t) y se denomina respuesta óptima o senda óptima.

En el contexto del problema de control (2.1-2.8) se conocen dos procedimientos para la obtención de la función de control óptimo. El primero se basa en el uso del principio de optimalidad de Bellman y se conoce como aproximación de circuito cerrado (Casti, 1989). El segundo de ellos conocido como aproximación de circuito abierto utiliza el principio del máximo de Pontryagin. Presentaremos a un nivel accesible las ideas que fundamentan dichos métodos. La caracterización de la estrategia de control que permite obtener el mayor beneficio social derivado de la explotación de un recurso pesquero se obtendrá mediante la aplicación de métodos de programación dinámica para obtener la mencionada estrategia en el caso autónomo y bajo la aplicación de controles de impulso se ilustra en el apéndice A2.

 

3. El problema de control para una pesquería uniespecífica

En el contexto de un sistema de explotación pesquera x(t) será la biomasa del recurso explotado y el sistema dinámico representará su tasa de cambio temporal expresada mediante el balance de los factores que determinan su crecimiento natural y el efecto asociado con los procesos de extracción. Se considerará que la biomasa en ausencia de explotación satisface la ecuación diferencial

con una condición inicial x(0) = x0, una final x(T) = xT, y donde g(x(t)) es una función decreciente conocida como tasa de crecimiento per cápita, con g(K) = 0 para cierta constante positiva K denominada capacidad de carga. Adicionalmente supondremos que g'(K) toma un valor negativo. Bajo las consideraciones anteriores la biomasa poblacional modelada mediante la ecuación (3.1) aumenta o disminuye a partir de x0 tendiendo hacia el equilibrio estable x(t) = K. Si el recurso se encuentra sujeto a explotación, el modelo a considerar es

donde la función de producción h(t) representa la tasa de explotación del recurso al tiempo t. Clark (1990) propone la ecuación

siendo Q(x(t)) creciente en x(t) y E(t) la tasa de esfuerzo pesquero, la cual al tiempo t determina la intensidad de la explotación. Dicho autor argumenta que esta definición proporciona ventajas desde el punto de vista matemático, pues considera una dependencia lineal de la función de producción respecto al esfuerzo. Más aún, el carácter creciente de Q(x(t)) modela adecuadamente el hecho de que la tasa de explotación asociada con un nivel de esfuerzo E(t) no puede decrecer cuando el nivel de biomasa aumenta.

A diferencia de otros autores que toman como variable de control la tasa de explotación h(t) (véase Clark, 1990), en este trabajo consideraremos como función de control al esfuerzo pesquero E(t) (Borbón-González, 1999). Esto tiene la ventaja de usar como variable de control una cantidad que puede ser medida directamente eliminando dependencias de ésta con los valores de la respuesta x(t), los cuales son más difíciles de ser estimados directamente. El correspondiente conjunto de admisibilidad E se definirá mediante la desigualdad

siendo Emax (t) la función que caracteriza el mayor esfuerzo pesquero que es posible aplicar considerando que la flota que realiza la explotación posee dimensiones acotadas.

La caracterización de la funcional objetivo (2.7) y el problema de optimización (2.8) utiliza la noción de beneficio social derivado de la explotación. El enfoque bioeconómico define el mayor beneficio social asociado con la actividad pesquera como la maximización del valor presente del flujo de ganancias sobre un horizonte de explotación [t0, T]. Recordemos que cuando una cantidad de dinero S0 se deposita inicialmente en una inversión a interés compuesto luego de n años su valor se incrementa exponencialmente de acuerdo con la fórmula

donde i representa la tasa de interés anual. Consideremos el parámetro δ = ln(1 + i) el cual se conoce como tasa instantánea de descuento, o bien como tasa neta de interés anual pagado continuamente. Supongamos en primera instancia que dicha tasa es invariable. A tiempo continuo el resultado de la ecuación (3.5) se generaliza fácilmente y se expresa como

Interpretándose, S(t) como el valor acumulado por la inversión desde el momento del depósito (t =0) hasta un tiempo arbitrario t. La función S(t) se identifica con el valor que a un futuro t se acumulará en la inversión (VF). A la cantidad S0 depositada inicialmente se le llama valor presente (VP) y tiene una interpretación opuesta a la de S(t). Puede considerarse como el descuento obtenido al momento de liquidar una cantidad que debía ser pagada en un tiempo futuro. Así, el valor presente (VP), de una cantidad S(t) que debe amortizarse en t años a partir de la fecha se obtiene de la ecuación (3.6) expresándose como

Consideremos el caso en el cual en el intervalo [t0, T] se tiene un flujo continuo de pagos S(t) con vencimiento al tiempo t y supongamos adicionalmente que la tasa de descuento es una función δ t continua y positivamente definida sobre el dominio anterior. En virtud de que al tiempo t el capital crece a una tasa proporcional al monto de la inversión S(t), siendo el factor de proporcionalidad la tasa de descuento δ (t), debemos tener la ecuación

Resolviendo la ecuación diferencial anterior, considerando la condición inicial S(t)0 = VPt tendremos que el valor presente de un pago S(t) que vencerá en un tiempo futuro t vendrá dado por

y el valor presente VPT de un flujo de pagos o ingresos S(t) colectados continuamente sobre un intervalo de tiempo t0tT deberá ser

Denotemos mediante P(t) el precio en el mercado a un tiempo t de una unidad de biomasa capturada y mediante C(x(t)) el costo de captura de la misma suponiéndose C(x(t)) decreciente en x(t). De acuerdo con la ecuación (3.3), la ganancia neta instantánea asociada con una tasa de captura h(t) resulta ser

Clark (1990) argumenta que la dependencia de la ganancia tanto en el nivel de biomasa como en el tiempo se justifica en virtud de que los costos de captura aumentan cuando la población es menos abundante, tomando en cuenta que el valor de mercado del producto varía con el tiempo de acuerdo con las leyes de la oferta y la demanda.

Con el propósito de obtener la condición de maximización del beneficio social asociado con una pesquería, consideraremos la funcional objetivo (Clark, 1990)

donde R(x,E) se define mediante la ecuación (3.11).

 

La ecuación (3.10) permite interpretar a la funcional (3.12) como el valor presente del flujo de ingresos de la pesquería sobre el horizonte temporal [t0, T]. El máximo beneficio social asociado con la explotación puede considerarse equivalente a la maximización de la funcional (3.12) sobre el espacio de variación de la función de control E(t).

 

4. El principio de optimalidad y la programación dinámica

Consideremos el problema de control (2.1)-(2.8) que plantea la identificación de la función u(t) y su respuesta x(t) que maximizan una cierta funcional objetivo bajo determinadas restricciones. Supongamos que la solución es conocida, y que a partir de un tiempo inicial t0 y de un estado inicial x0 = x*(t0) nos mantendremos sobre la respuesta óptima hasta un cierto tiempo posterior t, arribando a un nuevo estado x(t). Consideremos ahora el subproblema de control que inicia en ese tiempo t en el estado x(t) y que demanda la maximización de la funcional objetivo a partir de este punto. El principio de optimalidad de Bellman establece que bajo las suposiciones del problema original, la solución del subproblema arriba definido corresponde exactamente a la porción restante de la senda óptima x*(t).

De manera sucinta el principio de optimalidad de Bellman establece que, a partir de cualquier punto sobre la trayectoria óptima x*(t), la porción restante es óptima para el subproblema que inicia en dicho punto.

Denotemos mediante V(x0,t0) el máximo valor que la funcional objetivo (2.7) adquiere sobre un proceso de control con duración T-t0 (Figura 1) aplicando una función de control óptimo u*(t) es decir

La funcional V(x0,t0) usualmente se denomina función de valor o de utilidad óptima. En otras palabras V(x0,t0) es el mejor valor que la funcional objetivo (2.7) puede obtener en el subproceso que se inicia en el punto (t0,x0) aplicando la función de control óptimo u*(t). Sin pérdida de generalidad supongamos que en el intervalo (t0,t0 + Δt) con Δt suficientemente pequeño aplicamos una acción de control fija v = u*(t0). Entonces, utilizando la propiedad aditiva de V(x0,t0), el teorema de valor medio para integrales, y el principio de optimalidad considerando el subproblema de control que se inicia en el punto (t0 + Δt,x0 + f(x0,t0,vt) tendremos

donde

Resulta claro que si escogemos v de modo tal que el lado derecho de la desigualdad (4.2) obtenga su máximo valor posible entonces la relación de recurrencia

permitirá calcular la función de valor óptimo V(x0,t0) así como también la función de control óptimo u*(t) para cada posible estado inicial x0 y cada intervalo de longitud T - t0. Este procedimiento define una de las posibles alternativas para solucionar un problema de control. Su instrumentación es de gran complejidad desde el punto de vista numérico y se utiliza preferentemente en problemas discretos.

Denotemos mediante Δf el término f(x0,t0, vt. Entonces, suponiendo que V(x0,t0) varía suavemente su expansión en series de Taylor alrededor del punto (x0,t0) nos permite obtener

Sustituyendo este resultado en la ecuación (4.3) observando que V(x0,t0) y su derivada parcial con respecto a t0 no depende de v, luego de dividir por Δt y de pasar al límite cuando Δt tiende a cero obtenemos la ecuación de Bellman de la programación dinámica.

Esta ecuación satisface la condición de frontera

Observamos además que la ecuación (4.5) se cumple para cualquier par ordenado (t,x) como condición inicial. Su solución analítica es a menudo imposible. Si existe, proporciona una representación general de la familia completa de soluciones al problema de control (2.1)-(2.8). Sin embargo en la mayoría de los casos debe de ser solucionada numéricamente. Una aplicación de esta metodología se ilustra en el apéndice A2.

 

5. El principio del máximo de Pontryagin

Un procedimiento alternativo para obtener la solución al problema de control utiliza el llamado principio del máximo de Pontryagin. En el caso continuo este demanda la solución de una ecuación diferencial ordinaria y la maximización de una funcional auxiliar definida en términos de la función de control. Una derivación heurística del principio del máximo puede obtenerse utilizando el principio de optimalidad y la ecuación de Bellman. Para este fin, consideremos que en el problema de control (2.1)-(2.8) tanto T como el estado final x(T) se mantienen fijos. Supongamos como hemos hecho en la formulación de la ecuación (4.5) que el punto inicial (t0,x0) sea variable.

Consideremos la vigencia de la definición (4.1). Supongamos que dado un par ordenado (t0,x0) fijo, con 0≤t0,≤u*(t) existe y que la respuesta x*(t) toma el valor x0 en t0. Para cada valor de t en el intervalo [t0,T] tendremos

La inclusión del segundo término en la parte derecha de la ecuación anterior se justifica utilizando el principio de optimalidad, puesto que x*(t) corresponde a la trayectoria óptima asociada con la ley de control óptimo u*(t) dado x*(t0) = x0). Obteniendo la derivada de la ecuación (5.1) con respecto a t estableceremos

donde los paréntesis cuadrados frente a las derivadas parciales indican la evaluación de las mismas en los argumentos que estos incluyen.

Definamos ahora para cada función de respuesta x(t), asociada con una función de control con t0tT,

De la ecuación (5.2) resulta que

y por otro lado de las ecuaciones (4.5) y (5.3) se sigue que

Consecuentemente en virtud de la ecuación (5.4) obtendremos

Si ahora definimos la variable adjunta λ(t) mediante

y el Hamiltoniano (x,t,u;λ) como

al combinar las ecuaciones (5.3) y (5.8) y al evaluar en x*(t) y u*(t) tendremos

Este resultado, en conjunción con la ecuación (4.5), nos permite concluir que la ecuación (5.6) es equivalente a

Observemos que para u = u*(t) fija, G(t,x, u*) alcanza su máximo para x = x*(t) (véase la ecuación (5.6)). Entonces bajo condiciones apropiadas de diferenciabilidad debemos tener

Equivalentemente en virtud de la ecuación (5.3)

donde las funciones f y l tienen los argumentos x*(t),t,u*(t) y las derivadas parciales son evaluadas en los mismos. En virtud de la ecuación (5.7) tenemos

Esta ecuación y la anterior nos permite concluir que λ(t) satisface la ecuación

donde la derivada parcial se evalúa en los argumentos x*(t), u*(t) y λ(t). Esta ecuación se conoce como adjunta. Los resultados anteriores se resumen en el siguiente teorema:

Teorema 5.1 Consideremos el problema de control explicitado mediante las ecuaciones (2.1)-(2.8) y definamos la expresión Hamiltoniana mediante la ecuación (5.8) y la variable adjunta λ(t) mediante la ecuación (5.7). Supongamos que existe una función de control óptimo u*(t) que resuelve el problema de optimización de la ecuación (2.8) considerando la vigencia de la restricción dinámica (2.1) y la de admisibilidad (2.4). Supongamos además que u*(t) es una función continua sobre subintervalos contenidos en [t0,T]. Si x*(t) es la respuesta asociada con u*(t) entonces se cumplen las ecuaciones diferenciales (2.1) y (5.10) y la condición (5.9), es decir, la tríada (x*(t),u*(t)(t)) maximiza sobre el conjunto de admisibilidad y a lo largo del intervalo de control [t0,T].

Es necesario hacer énfasis en el hecho de que las ecuaciones (5.9) y (5.10) representan condiciones necesarias que la función de control óptimo u*(t) y su respuesta x*(t) deben satisfacer. La ecuación (5.9), la cual es en sí misma referida como el principio del máximo, establece que a cada tiempo t las funciones u*(t) y x*(t) deben maximizar el valor de la expresión Hamiltoniana (5.8) sobre las posibles caracterizaciones de la función de control u(t) que pertenecen al conjunto de admisibilidad . No es ocioso enfatizar que si u(t) pertenece al interior de , entonces la ecuación (5.9) implica la condición

en ese caso, las ecuaciones (5.10) y (5.11) implican la vigencia de las ecuaciones de Euler para la solución de problemas variacionales.

En el caso en el cual el problema de control no especifica la condición terminal (2.3) el principio del máximo debe extenderse a manera de incluir la llamada condición de transversalidad

siendo ψ((T,x(T)) el valor de liquidación de la biomasa en el horizonte temporal (cf. ec. 2.6). Si este tampoco se especifica entonces la condición de transversalidad toma la forma particular

Observemos adicionalmente que tenemos tres funciones por determinar. La función de control óptimo u*(t), la respuesta x*(t) y la variable adjunta λ(t). Para esto tenemos tres ecuaciones. La ecuación de estado (2.1), la ecuación adjunta (5.10), y el principio del máximo explicitado por la ecuación (5.9). La ecuación adjunta y la de estado son ecuaciones diferenciales ordinarias. Su solución requiere condiciones iniciales o terminales o ambas. Dos condiciones de ese tipo se incluyen en el problema de control ie., las ecuaciones (2.2) y (2.3). Se reúnen, en principio, el número apropiado de condiciones para determinar x*(t), u*(t) y λ (t) resolviendo en el caso más general un problema de contorno bi-puntual.

 

6. Determinación de la estrategia de control óptimo para una pesquería uniespecífica

En esta sección abordaremos el problema de encontrar la estrategia de control óptimo para el manejo de una pesquería basada en una única población. Caracterizaremos mediante el uso del principio del máximo la función de control óptimo E*(t) y la trayectoria óptima x*(t) que se derivan del problema de control correspondiente. Sin pérdida de generalidad supondremos que en la función (3.3) Q(x(t)) se expresa como una proporción de la biomasa. De este modo el modelo (2.1) para la dinámica poblacional será

obsérvese que en alusión a la ecuación (3.1) debemos tener F(x(t)) = x(t)g (x(t)), siendo q una constante positiva que se conoce como coeficiente de capturabilidad. Con el fin de facilitar la presentación consideremos que el conjunto de admisibilidad para la función de control toma la forma

es decir, tomaremos Emax(t) como una constante Emax. Sin embargo, en el contexto de la ecuación (3.1) estableceremos la condición adicional

esto es, supondremos que la mayor tasa de esfuerzo pesquero que se puede aplicar induce un valor negativo para la tasa de crecimiento per cápita de la población. Tomaremos como funcional objetivo el valor presente del flujo de ganancias netas sobre t0tT, (cf. ec. 3.12). Específicamente

donde

y μ(x(t)) representa el costo de cada unidad de esfuerzo pesquero cuando el nivel de biomasa es x(t). Supondremos también que todas las funciones involucradas en (6.4) son continuamente diferenciables en el intervalo (t0, T). Es oportuno indicar que nos interesa obtener el máximo valor posible de la funcional (6.4) al variar E(t) sobre el conjunto de admisibilidad (6.2). En este contexto el Hamiltoniano (5.8) estará dado como

Definiendo para t0tT la función σ(t) mediante

podemos observar que varía linealmente en E(t), por lo tanto la condición

se cumplirá haciendo

En el caso en el cual E(t) pertenece al interior de se cumple la condición de maximización (cf. ec. 5.11)

Esto corresponde al llamado caso de control singular. Equivalentemente σ(t) deberá anularse sobre algún intervalo de tiempo de longitud positiva. Denotemos mediante xs(t) la respuesta asociada. Así de la ecuación (6.7) tendremos

Según el principio del máximo, la función λ(t) satisface la ecuación adjunta (5.10). Por lo tanto para la senda singular xs(t) se cumplirá (cf. ec. 6.7),

Por otro lado de las ecuaciones (6.5) y (6.11) se sigue que

Igualando las ecuaciones (6.12) y (6.13) después de simplificar tenemos

donde la función C(xs(t)) dada por

representa el costo de cada unidad de biomasa capturada. En el caso autónomo cuando P(t) y δ(t) permanecen constantes la ecuación (6.14) genera la ecuación de la regla aurea de Clark (Clark, 1990, página 40)

Para cada tiempo t la ecuación (6.14) define implícitamente la senda singular xs(t). Si denotamos mediante Es(t) la correspondiente función de control óptimo, ésta según la ecuación (6.1) será

En resumen, la trayectoria de control óptimo x*(t) se determina mediante el uso de la función σ(t). Los intervalos en los cuales σ(t) mantiene su signo nos permite escoger la ley de control óptimo E*(t). Esta tomará, según corresponda, los valores extremos del conjunto de admisibilidad (cf. ec. 6.9). Si σ(t) se anula en un intervalo entonces la ley de control óptimo será Es(t) y vendrá dada por la ecuación (6.17). En virtud de lo anterior a σ(t) se le conoce como función de conmutación. El intervalo donde σ(t) se anula se conoce como intervalo de control singular. La respuesta en ese caso será la senda singular xs(t) y estará dada implícitamente por la ecuación (6.14).

Supongamos, sin pérdida de generalidad, que x0<K (véase la ecuación (3.1)) y que para un tiempo τ>t0 se tiene x*(τ)>xs(τ). Cualquier subintervalo de [t0,T] en el cual la función de conmutación σ(t) se anula y debe necesariamente incluir a τ. Más aún &sigma(&tau) debe( er positiva. Si σ(τ) fuera negativa necesariamente E*(τ) se anularía. En este caso en virtud de las hipótesis que se establecieron para la ecuación (6.1) cualquier trayectoria que inicia arriba de la trayectoria singular permanece siempre arriba de ésta. Por lo tanto al mantener la condición E(t)=0 impediríamos que la condición terminal xT(t) fuera realizable. Similarmente tomando en cuenta la vigencia de la ecuación (6.3) veremos que si x*(τ)<xs(τ) entonces σ(τ) debe ser negativa. Concluimos entonces que necesariamente en términos del estado del sistema x(t) la ley de control óptimo E*(t) debe escogerse como

Dependiendo de la forma particular que sobre cada subconjunto de [t0,T] tome la ley de control E*(t), la respuesta de x*(t) cambiará de forma. Resulta claro que ninguna de las formas parciales de x*(t) generadas según la ecuación (6.18) puede mantenerse a lo largo del intervalo [t0,T]. Por ejemplo, supongamos que es la respuesta asociada con E*(t)=0. Mantener en todo el intervalo de control hará que el beneficio social de la explotación sea equivalnte al valor de liquidación del recurso. Similarmente, si se asocia con E*(t)=Emax el pretender sostener la igualdad x*(t)=xmax sobre [t0,T] nos llevaría a considerar un punto ta con t0<t0<T en el cual xs(t) coincide con xmax(t) (Figura 2). La función de conmutación σ(t) se anularía en dicho punto y por ende, tanto la función de control Emax como su respuesta deben cambiar por dar paso al modo de control singular. Por último la senda singular xs(t) solo fortuitamente podría satisfacer simultáneamente las condiciones inicial y terminal del problema. Esto nos lleva a pensar que se requiere combinar adecuadamente las tres formas parciales de la respuesta (cf. ec. 6.18) con el fin de obtener la trayectoria óptima sobre [t0,T].

La senda óptima x*(t) se construye entonces del modo siguiente: si x0<xs(t0), suspenderemos la explotación, i. e., hacemos E(t) = 0 hasta que x*(t) intercepte a xs(t) en el tiempo ta. Pescamos a continuación con tasa Es(t) (cf. ec. 6.17) hasta un tiempo tb, a partir del cual suspendemos la explotación con el fin de permitir que x*(t) satisfaga la condición final (2.3) (Figura 2). Si x0>x*s(t0) entonces explotamos a modo de lograr la mayor tasa descendente para la biomasa. Es decir hacemos E(t)=Emax. Mantenemos a continuación este ritmo de explotación hasta alcanzar la trayectoria singular xs(t), suspendiendo la explotación a partir del tiempo xb con el fin de permitir que la condición final xT se satisfaga. La estrategia del control óptimo en el intervalo [t0,T] se ilustra en la Figura 2 para el caso xs(T)<xT.

 

Conclusiones

Hemos pretendido en este trabajo presentar de manera sucinta los resultados analíticos que fundamentan el uso de metodologías de optimización dinámica al manejo de pesquerías. El enfoque abordado utiliza una conceptualización uniespecífica para el sistema de explotación. Dicha aproximación ha sido cuestionada prefiriéndose descripciones multiespecíficas. Sin embargo en lo relativo al desarrollo, o bien a la explicación de metodologías analíticas dicho enfoque posee la ventaja de la simplicidad. Los resultados aquí presentados no carecen de la generalidad requerida por los enfoques multiespecíficos, ya que pueden extenderse de un modo directo a dimensiones mayores. La comprensión de los métodos aquí desarrollados podrá facilitar también el estudio de metodologías estocásticas tradicionales o bien de enfoques Bayesianos.

Resulta claro que la extensión del presente trabajo dejará de lado un sinnúmero de aspectos importantes. El carácter multidisciplinario del material abordado explica dicha proliferación. La lectura del material bibliográfico contribuirá sin duda en la eliminación de dichas limitaciones. Nos permitimos recomendar ampliamente la lectura del seminal tratado de Clark sobre bioeconomía matemática (Clark, 1990).

En la segunda parte de este trabajo ilustraremos los métodos empíricos que permitirán la aplicación de los resultados de la presente selección al análisis del régimen de explotación de dos pesquerías con participación de flotas mexicanas. La de anchoveta norteña (Engraulis mordax), y la de sardina del Pacífico en el Golfo de California (Sardinops sagax caeruleus).

Apéndice A1

 

Agradecimientos

A Elena Solana quien contribuyó notablemente en la revisión del contenido del presente trabajo. Los trabajos de investigación cuyos resultados aquí presentamos fueron auspiciados por el proyecto CONACYT 28440-A.

 

Literatura citada

Bellman, R. E., 1957. Dynamic Programming. Princeton University Press, Princeton, New Jersey.         [ Links ]

Bliss, G. A., 1946. Lectures on the Calculus of Variations. University of Chicago Press, Chicago, Illinois.         [ Links ]

Borbon-González, D. J., 1999. Control óptimo de una pesquería sujeta a un régimen de oscilaciones inducidas por colapsos y recuperaciones de los niveles de biomasa: el caso de la anchoveta norteña (Engraulis mordax Girard). Proyecto de Tesis Doctoral. CICESE, Departamento de Ecología.         [ Links ]

Bushaw, D., 1958. Optimal discontinuous forcing terms. pp. 29-52. En: S. Lefschetz (Comp.). Contributions to the Theory of Nonlinear Oscillations IV. Annals of Mathematics Studies 41, Princeton University Press.         [ Links ]

Casti, J. L., 1989. Alternate realities Mathematical Models of Nature and Man. John Wiley and Sons, New York.         [ Links ]

Clark, C. W. y J. De Pree, 1975. A simple linear model for the optimal exploitation of renewable resources. Applied Mathematics and Optimization 5: 181-196.         [ Links ]

Clark, C. W., 1990. Mathematical Bioeconomics: The Optimal Management of Renewable Resources. New York, Wiley-Interscience (second edition).         [ Links ]

Fleming, W. H. y R. W. Rishel, 1975. Deterministic and Stochastic Optimal Control. Springer Verlag, New York.         [ Links ]

Goh, B. S., 1954. The economic theory of a common-property resource: the fishery. Journal of Political Economy 62: 124-142.         [ Links ]

Kamien M. I. y N. L. Schwartz, 1981. Dynamic Optimization: The calculus of variations and Optimal Control in Economics and Management. New York, North Holland.         [ Links ]

La Salle, J. P., 1960. The time optimal control problem. pp. 1-24. En: S. Lefschetz (Comp.). Contributions to the Theory of Nonlinear Oscillations V, Annals of Mathematical Studies 45, Princeton University Press.         [ Links ]

Ludwing, D. y C. Walters, 1985. Are age structured models appropiate for catch effort data? Canadian Journal of Fisheries Aquatic Science 42: 1066-1072.         [ Links ]

Pontryagin, L. S., V. G. Boltyanskii, R. V. Gamkrelioze y E. F. Mischenko, 1962. The Mathematical Theory of Optimal Processes. Wiley (Interscience), New York.         [ Links ]

Schaefer, M. B., 1957. Some considerations of population dynamics and economics in relation to the management of marine fisheries. Journal of the Fisheries Research Board of Canada 14: 669-681.         [ Links ]

Simmons, G. F., 1972. Differential Equations with Applications and Historical Notes. Academic Pess, New York.         [ Links ]

Watt, K. E. F., 1968. Ecology and Resource Management. McGraw-Hill, New York.         [ Links ]

Creative Commons License Todo el contenido de esta revista, excepto dónde está identificado, está bajo una Licencia Creative Commons