change task module for XiZi_AIoT

This commit is contained in:
wgzAIIT 2023-05-18 17:49:04 +08:00
parent d67d8e96f0
commit 44810118af
3 changed files with 601 additions and 371 deletions

4
.gitmodules vendored
View File

@ -12,10 +12,10 @@
url = https://gitlink.org.cn/xuos/lwext4_filesystem_support_XiUOS.git
[submodule "Ubiquitous/Nuttx_Fusion_XiUOS/nuttx"]
path = Ubiquitous/Nuttx_Fusion_XiUOS/nuttx
url = https://gitlink.org.cn/wgzAIIT/incubator-nuttx.git
url = https://code.gitlink.org.cn/wgzAIIT/incubator-nuttx.git
[submodule "Ubiquitous/Nuttx_Fusion_XiUOS/apps"]
path = Ubiquitous/Nuttx_Fusion_XiUOS/apps
url = https://gitlink.org.cn/wgzAIIT/incubator-nuttx-apps.git
url = https://code.gitlink.org.cn/wgzAIIT/incubator-nuttx-apps.git
[submodule "APP_Framework/Applications/webnet/WebNet_XiUOS"]
path = APP_Framework/Applications/webnet/WebNet_XiUOS
url = https://gitlink.org.cn/xuos/WebNet_XiUOS.git

View File

@ -1,212 +1,190 @@
/*
* Copyright (c) 2020 AIIT XUOS Lab
* XiUOS is licensed under Mulan PSL v2.
* You can use this software according to the terms and conditions of the Mulan PSL v2.
* You may obtain a copy of Mulan PSL v2 at:
* http://license.coscl.org.cn/MulanPSL2
* THIS SOFTWARE IS PROVIDED ON AN "AS IS" BASIS, WITHOUT WARRANTIES OF ANY KIND,
* EITHER EXPRESS OR IMPLIED, INCLUDING BUT NOT LIMITED TO NON-INFRINGEMENT,
* MERCHANTABILITY OR FIT FOR A PARTICULAR PURPOSE.
* See the Mulan PSL v2 for more details.
*/
/**
* @file: task.c
* @brief: file task.c
* @version: 1.0
* @author: AIIT XUOS Lab
* @date: 2023/05/18
*
*/
#include <task.h>
#include <stdlib.h>
#include <stdio.h>
#include <string.h>
#include <stdint.h>
#include <errno.h>
#define DEF_STACK_SIZE (128 * 1024)
// 定义全局的任务调度器
scheduler_t *scheduler;
/*******************************************************************************
* : scheduler_init
* :
* : num_cpus:cpu个数,num_tasks_per_cpu:CPU的任务数量
* :
*******************************************************************************/
scheduler_t *scheduler_init(int num_cpus, int num_tasks_per_cpu) {
// 分配并初始化任务调度器
scheduler = malloc(sizeof(scheduler_t));
scheduler->num_cpus = num_cpus;
scheduler->num_tasks_per_cpu = num_tasks_per_cpu;
scheduler->ready_queue = malloc(sizeof(task_t*) * num_cpus * num_tasks_per_cpu);
scheduler->interrupt_stack_ptr = NULL;
for (int i = 0; i < num_cpus * num_tasks_per_cpu; i++) {
scheduler->ready_queue[i] = NULL;
}
scheduler->current_task = NULL;
scheduler->current_cpu_id = 0;
return scheduler;
}
// 全局运行队列和本地运行队列
tcb_t *global_run_queue_head = NULL;
tcb_t *global_run_queue_tail = NULL;
tcb_t *local_run_queue_head[8] = {NULL};
tcb_t *local_run_queue_tail[8] = {NULL};
// 当前任务的指针
volatile tcb_t *current_task = NULL;
/*******************************************************************************
* : create_task
* :
* : func:,arg:,
priority:,stack_size:
* : id
* : tcb_init
* :
* : tcb:,priority:,stack_size:
* :
*******************************************************************************/
int create_task(void (*func)(void *), void *arg, int priority, size_t stack_size) {
// 分配并初始化任务控制块
tcb *task = malloc(sizeof(tcb));
task->id = generate_task_id();
task->priority = priority;
task->state = THREAD_READY;
task->stack_size = stack_size;
task->stack_bottom = malloc(stack_size);
task->stack_ptr = (uint32_t*)(task->stack_bottom + stack_size / sizeof(uint32_t));
task->entry_point = func;
task->arg = arg;
task->cpu_id = get_current_cpu_id();
// 初始化任务堆栈
init_stack(task->stack_ptr, stack_size, func, arg,task);
// 添加任务到就绪队列
add_task_to_ready_queue(task);
return task->id;
}
/*******************************************************************************
* : destroy_task
* :
* : task_id:id
* : 0
*******************************************************************************/
int destroy_task(int task_id) {
// 获取要销毁的任务控制块
tcb *task = get_task_by_id(task_id);
if (task == NULL) {
return -1;
}
if (task->state == TASK_RUNNING) {
// 如果要销毁的任务正在运行,则直接切换到下一个任务
switch_to_next_task();
}
// 从就绪队列中移除任务
remove_task_from_ready_queue(task);
// 释放任务堆栈
free(task->stack_bottom);
// 释放任务控制块
free(task);
return 0;
}
/*******************************************************************************
* : suspend_task
* :
* : task_id:id
* : 0
*******************************************************************************/
int suspend_task(int task_id) {
// 获取要挂起的任务控制块
tcb *task = get_task_by_id(task_id);
if (task == NULL) {
return -1;
}
if (task->state == TASK_RUNNING) {
// 如果要挂起的任务正在运行,则切换到下一个任务
switch_to_next_task();
}
// 修改任务状态为阻塞状态
task->state = TASK_BLOCKED;
return 0;
}
/*******************************************************************************
* : resume_task
* :
* : task_id:id
* : 0
*******************************************************************************/
int resume_task(int task_id) {
// 获取要恢复的任务控制块
tcb *task = get_task_by_id(task_id);
if (task == NULL) {
return -1;
}
if (task->state != TASK_BLOCKED) {
// 如果要恢复的任务不是阻塞状态,则直接返回
return -1;
}
// 修改任务状态为就绪状态
task->state = task_READY;
// 添加任务到就绪队列
add_task_to_ready_queue(task);
return 0;
}
/*******************************************************************************
* : set_task_priority
* :
* : task_id:idpriority:
* : 0
*******************************************************************************/
int set_task_priority(int task_id, int priority) {
// 获取要调整优先级的任务控制块
tcb *task = get_task_by_id(task_id);
if (task == NULL) {
return -1;
}
// 修改任务优先级
task->priority = priority;
return 0;
void tcb_init(tcb_t *tcb, int priority, int stack_size) {
tcb->priority = priority;
tcb->state = TASK_CREATED;
tcb->message_queue = NULL;
tcb->stack = (uint8_t*)malloc(stack_size);
tcb->stack_size = stack_size;
tcb->stack_ptr = tcb->stack + stack_size - sizeof(context_t);
// 将任务的上下文保存在栈中
context_t *context = (context_t*)tcb->stack_ptr;
context_init(context, (void*)task_entry, tcb->stack_ptr);
}
/*******************************************************************************
* : get_current_task_id
* : ID
* : tcb_destroy
* :
* : tcb:
* :
*******************************************************************************/
void tcb_destroy(tcb_t *tcb) {
free(tcb->stack_bottom);
tcb->stack_ptr = NULL;
tcb->stack_bottom = NULL;
tcb->stack_size = 0;
tcb->state = TASK_BLOCKED;
tcb->priority = 0;
tcb->next = NULL;
if (tcb->message_queue != NULL) {
message_queue_destroy(tcb->message_queue);
tcb->message_queue = NULL;
}
}
/*******************************************************************************
* : get_current_task
* :
* :
* : 0
* :
*******************************************************************************/
int get_current_task_id() {
if (scheduler->current_task == NULL) {
return -1;
tcb_t *get_current_task() {
return (tcb_t*)current_task;
}
/*******************************************************************************
* : get_local_run_queue_head
* :
* : cpu_id:cpu的id
* :
*******************************************************************************/
tcb_t *get_local_run_queue_head(int cpu_id) {
return local_run_queue_head[cpu_id];
}
/*******************************************************************************
* : add_to_global_run_queue
* :
* : tcb:
* :
*******************************************************************************/
void add_to_global_run_queue(tcb_t *tcb) {
// 将任务添加到全局运行队列的尾部
if (global_run_queue_head == NULL) {
global_run_queue_head = tcb;
global_run_queue_tail = tcb;
} else {
global_run_queue_tail->next = tcb;
global_run_queue_tail = tcb;
}
return scheduler->current_task->id;
}
/*******************************************************************************
* : get_current_cpu_id
* : CPU的ID
* : take_from_global_run_queue
* :
* :
* : CPU的ID
* : ,ARM-A9系列芯片为例
* : tcb:
*******************************************************************************/
uint16_t get_current_cpu_id() {
uint32_t mpidr;
asm volatile ("mrc p15, 0, %0, c0, c0, 5" : "=r" (mpidr));
return mpidr & 0xff;
}
/*******************************************************************************
* : get_task_by_id
* : ID获取任务控制块
* : task_id:id
* :
*******************************************************************************/
tcb *get_task_by_id(int task_id) {
// 遍历就绪队列和当前任务,寻找任务控制块
for (int i = 0; i < scheduler->num_cpus * scheduler->num_tasks_per_cpu; i++) {
tcb *task = scheduler->ready_queue[i];
if (task != NULL && task->id == task_id) {
return task;
tcb_t *take_from_global_run_queue() {
// 从全局运行队列的头部取出一个任务
if (global_run_queue_head == NULL) {
return NULL;
} else {
tcb_t *tcb = global_run_queue_head;
global_run_queue_head = tcb->next;
if (global_run_queue_head == NULL) {
global_run_queue_tail = NULL;
}
return tcb;
}
tcb *task = scheduler->current_task;
if (task != NULL && task->id == task_id) {
return task;
}
return NULL;
}
/*******************************************************************************
* : generate_task_id
* : ID
* :
* : ID
* : add_to_local_run_queue
* :
* : tcb:,cpu_id:CPU id
* :
*******************************************************************************/
int generate_task_id() {
static int next_task_id = 1; // 静态变量记录下一个可用的任务ID
int task_id = next_task_id++; // 生成任务ID并将next_task_id加1
return task_id;
void add_to_local_run_queue(tcb_t *tcb, int cpu_id) {
// 将任务添加到本地运行队列的尾部
if (local_run_queue_head[cpu_id] == NULL) {
local_run_queue_head[cpu_id] = tcb;
local_run_queue_tail[cpu_id] = tcb;
} else {
local_run_queue_tail[cpu_id]->next = tcb;
local_run_queue_tail[cpu_id] = tcb;
}
}
/*******************************************************************************
* : take_from_local_run_queue
* :
* : cpu_id:CPU id
* :
*******************************************************************************/
tcb_t *take_from_local_run_queue(int cpu_id) {
// 从本地运行队列的头部取出一个任务
if (local_run_queue_head[cpu_id] == NULL) {
return NULL;
} else {
tcb_t *tcb = local_run_queue_head[cpu_id];
local_run_queue_head[cpu_id] = tcb->next;
if (local_run_queue_head[cpu_id] == NULL) {
local_run_queue_tail[cpu_id] = NULL;
}
return tcb;
}
}
/*******************************************************************************
* : move_current_task_to_global_run_queue
* : ,
* :
* :
*******************************************************************************/
void move_current_task_to_global_run_queue() {
int cpu_id = get_cpu_id();
tcb_t *tcb = (tcb_t*)current_task;
tcb->state = TASK_READY;
add_to_global_run_queue(tcb);
local_run_queue_head[cpu_id] = NULL;
local_run_queue_tail[cpu_id] = NULL;
current_task = NULL;
}
@ -217,135 +195,343 @@ int generate_task_id() {
* :
*******************************************************************************/
void switch_to_next_task() {
int cpu_id = get_cpu_id();
tcb_t *current_tcb = (tcb_t*)current_task;
tcb_t *next_tcb = take_from_local_run_queue(cpu_id);
if (next_tcb == NULL) {
next_tcb = take_from_global_run_queue();
}
if (next_tcb == NULL) {
// 如果没有可运行的任务,则将当前任务继续运行
return;
}
// 保存当前任务的上下文
// TODO: 保存当前任务的上下文
// 从就绪队列中取出下一个任务
task_t *next_task = NULL;
for (int i = scheduler->current_cpu_id * scheduler->num_tasks_per_cpu; i < (scheduler->current_cpu_id + 1) * scheduler->num_tasks_per_cpu; i++) {
task_t *task = scheduler->ready_queue[i];
if (task != NULL && (next_task == NULL ||task->priority > next_task->priority)) {
next_task = task;
}
if (current_tcb != NULL) {
current_tcb->stack_ptr = get_stack_pointer();
}
if (next_task == NULL) {
// 如果就绪队列为空,则切换到空闲任务
// TODO: 切换到空闲任务
} else {
// 切换到下一个任务
scheduler->current_task = next_task;
scheduler->current_task->state = TASK_RUNNING;
// TODO: 恢复下一个任务的上下文
// 切换到下一个任务的上下文
current_task = next_tcb;
set_stack_pointer(next_tcb->stack_ptr);
// 如果切换到的任务是新的任务,需要执行任务初始化函数
if (current_tcb != next_tcb) {
next_tcb->state = TASK_RUNNING;
task_init(next_tcb);
}
}
/*******************************************************************************
* : add_task_to_ready_queue
* :
* : task:
* : task_init
* :
* : tcb:
* :
*******************************************************************************/
void add_task_to_ready_queue(task_t *task) {
// 找到任务所在的CPU的就绪队列
int cpu_id = task->cpu_id;
int start_index = cpu_id * scheduler->num_tasks_per_cpu;
int end_index = (cpu_id + 1) * scheduler->num_tasks_per_cpu;
// 找到一个空闲的位置插入任务
for (int i = start_index; i < end_index; i++) {
if (scheduler->ready_queue[i] == NULL) {
scheduler->ready_queue[i] = task;
void task_init(tcb_t *tcb) {
// 创建消息队列
message_queue_t mq = (message_queue_t)malloc(sizeof(message_queue_t));
mq->buffer = (message_t)malloc(sizeof(message_t) * 16);
mq->capacity = 16;
mq->head = 0;
mq->tail = 0;
mq->count = 0;
tcb->message_queue = mq;
}
/*******************************************************************************
* : create_task
* :
* : priority:,stack_size:
* :
*******************************************************************************/
tcb_t *create_task(int priority, int stack_size) {
tcb_t *tcb = (tcb_t*)malloc(sizeof(tcb_t));
tcb_init(tcb, priority, stack_size);
add_to_global_run_queue(tcb);
return tcb;
}
/*******************************************************************************
* : destroy_task
* :
* : tcb:
* :
*******************************************************************************/
void destroy_task(tcb_t *tcb) {
tcb_destroy(tcb);
free(tcb);
}
/*******************************************************************************
* : send_message
* :
* : dest_tcb:,type:,data:
* :
*******************************************************************************/
void send_message(tcb_t *dest_tcb, int type, void *data) {
message_t message;
message.type = type;
message.data = data;
if (dest_tcb->message_queue == NULL) {
// 如果目标任务没有消息队列,则创建一个消息队列
dest_tcb->message_queue = message_queue_create(16);
}
// 将消息添加到目标任务的消息队列中
message_queue_push(dest_tcb->message_queue, &message);
}
/*******************************************************************************
* : receive_message
* :
* : type:,data:
* :
*******************************************************************************/
void receive_message(int type, void *data) {
tcb_t *current_tcb = (tcb_t*)current_task;
message_t message;
// 从当前任务的消息队列中取出消息
while (message_queue_pop(current_tcb->message_queue, &message) != 0) {
if (message.type == type) {
// 如果消息的类型匹配,则返回消息数据
memcpy(data, message.data, sizeof(void*));
return;
}
}
// 如果没有空闲的位置,则替换掉优先级最低的任务
task_t *lowest_priority_task = NULL;
int lowest_priority = 0;
for (int i = start_index; i < end_index; i++) {
task_t *t = scheduler->ready_queue[i];
if (t != NULL && (lowest_priority_task == NULL || t->priority < lowest_priority)) {
lowest_priority_task = t;
lowest_priority = t->priority;
}
}
scheduler->ready_queue[lowest_priority_task - scheduler->ready_queue] = task;
}
/*******************************************************************************
* : remove_task_from_ready_queue
* :
* : task:
* :
*******************************************************************************/
void remove_task_from_ready_queue(task_t *task) {
// 找到任务所在的CPU的就绪队列
int cpu_id = task->cpu_id;
int start_index = cpu_id * scheduler->num_tasks_per_cpu;
int end_index = (cpu_id + 1) * scheduler->num_tasks_per_cpu;
// 从就绪队列中移除任务
for (int i = start_index; i < end_index; i++) {
if (scheduler->ready_queue[i] == task) {
scheduler->ready_queue[i] = NULL;
// 如果没有匹配的消息,则当前任务被阻塞,直到有匹配的消息为止
current_tcb->state = TASK_BLOCKED;
while (message_queue_pop(current_tcb->message_queue, &message) != 0) {
if (message.type == type) {
// 如果有匹配的消息,则返回消息数据,并将当前任务状态设置为就绪
memcpy(data, message.data, sizeof(void*));
current_tcb->state = TASK_READY;
return;
}
}
}
/*******************************************************************************
* : init_stack
* :
* : stack_ptr:,stack_size:
func:,arg:
task:
* :
*******************************************************************************/
void init_stack(uint32_t *stack_ptr, size_t stack_size, void (*func)(void *), void *arg,tcb* task) {
// 计算堆栈底部指针
uint32_t *stack_bottom = stack_ptr - stack_size / sizeof(uint32_t);
// 将任务参数压入堆栈中
*(--stack_ptr) = (uint32_t)arg;
// 将任务入口函数压入堆栈中
*(--stack_ptr) = (uint32_t)func;
// 设置堆栈指针和堆栈底部指针
task->stack_ptr = stack_ptr;
task->stack_bottom = stack_bottom;
}
/*******************************************************************************
* : idle_task
* :
* :
* :
*******************************************************************************/
void idle_task(void *arg) {
// 如果还是没有匹配的消息,则当前任务一直被阻塞
while (1) {
// 休眠等待,直到接收到调度器的唤醒信号
asm volatile ("wfi");
wait_for_interrupt();
}
}
/*******************************************************************************
* : init_idle_task
* :
* : message_queue_create
* :
* : capacity:
* :
*******************************************************************************/
message_queue_t *message_queue_create(int capacity) {
message_queue_t *mq = (message_queue_t*)malloc(sizeof(message_queue_t));
mq->buffer = (message_t*)malloc(sizeof(message_t) * capacity);
mq->capacity = capacity;
mq->head = 0;
mq->tail = 0;
mq->count = 0;
return mq;
}
/*******************************************************************************
* : message_queue_destroy
* :
* : mq:
* :
*******************************************************************************/
void message_queue_destroy(message_queue_t *mq) {
free(mq->buffer);
free(mq);
}
/*******************************************************************************
* : message_queue_push
* :
* : message_queue_t:,message_t:
* : 0:,-1:
*******************************************************************************/
int message_queue_push(message_queue_t *mq, message_t *message) {
if (mq->count >= mq->capacity) {
return -1; // 队列已满
}
mq->buffer[mq->tail] = *message;
mq->tail = (mq->tail + 1) % mq->capacity;
mq->count++;
return 0;
}
/*******************************************************************************
* : message_queue_pop
* :
* : message_queue_t:,message_t:
* : 0:,-1:
*******************************************************************************/
int message_queue_pop(message_queue_t *mq, message_t *message) {
if (mq->count <= 0) {
return -1; // 队列已空
}
*message = mq->buffer[mq->head];
mq->head = (mq->head + 1) % mq->capacity;
mq->count--;
return 0;
}
/*******************************************************************************
* : context_init
* :
* : message_queue_t:,message_t:
* : 0:,-1:
*******************************************************************************/
void context_init(context_t *context, void (*entry)(void), void *stack_ptr) {
context->cpsr = 0x10; // 设置 CPSR 的初始值
context->pc = (uint32_t)entry; // 设置 PC 的初始值为任务入口地址
context->r0 = (uint32_t)stack_ptr; // 设置 R0 的初始值为栈指针
context->r1 = 0; // 设置 R1 的初始值为 0
context->r2 = 0; // 设置 R2 的初始值为 0
context->r3 = 0; // 设置 R3 的初始值为 0
context->r4 = 0; // 设置 R4 的初始值为 0
context->r5 = 0; // 设置 R5 的初始值为 0
context->r6 = 0; // 设置 R6 的初始值为 0
context->r7 = 0; // 设置 R7 的初始值为 0
context->r8 = 0; // 设置 R8 的初始值为 0
context->r9 = 0; // 设置 R9 的初始值为 0
context->r10 = 0; // 设置 R10 的初始值为 0
context->r11 = 0; // 设置 R11 的初始值为 0
context->r12 = 0; // 设置 R12 的初始值为 0
context->sp = (uint32_t)stack_ptr; // 设置 SP 的初始值为栈指针
context->lr = (uint32_t)task_exit; // 设置 LR 的初始值为线程退出函数的地址
}
/*******************************************************************************
* : wait_for_interrupt
* :
* :
* :
*******************************************************************************/
void init_idle_task() {
// 创建空闲任务的TCB
tcb *task = (tcb *)malloc(sizeof(tcb));
memset(task, 0, sizeof(tcb));
task->state = task_READY;
task->priority = 0;
task->cpu_id = get_current_cpu_id();
task->task_id = generate_task_id();
// 初始化空闲任务的堆栈
uint32_t *stack_ptr = (uint32_t *)malloc(DEF_STACK_SIZE);
memset(stack_ptr, 0, DEF_STACK_SIZE);
init_stack(stack_ptr + DEF_STACK_SIZE / sizeof(uint32_t), DEF_STACK_SIZE, idle_task, NULL,task);
task->stack_ptr = stack_ptr + DEF_STACK_SIZE / sizeof(uint32_t) - 1;
task->stack_bottom = stack_ptr;
// 将空闲任务添加到就绪队列中
add_tcbo_ready_queue(task);
void wait_for_interrupt() {
// 在实现中,可以使用 WFI 指令等待中断
__asm__ volatile("wfi");
}
/*******************************************************************************
* : get_cpu_id
* : CPU id
* :
* : cpu id
*******************************************************************************/
int get_cpu_id() {
uint32_t mpidr;
__asm__ volatile("mrc p15, 0, %0, c0, c0, 5" : "=r"(mpidr));
return mpidr & 0xff;
}
/*******************************************************************************
* : get_stack_pointer
* :
* :
* :
*******************************************************************************/
void *get_stack_pointer() {
// 在实现中,可以使用 ARM 的 SP 寄存器获取栈指针
void *sp;
__asm__ volatile("mov %0, sp" : "=r"(sp));
return sp;
}
/*******************************************************************************
* : set_stack_pointer
* :
* :
* :
*******************************************************************************/
void set_stack_pointer(void *sp) {
// 在实现中,可以使用 ARM 的 SP 寄存器设置栈指针
__asm__ volatile("mov sp, %0" : : "r"(sp));
}
/*******************************************************************************
* : add_interrupt_handler
* :
* : irq:,handler:,priority:
* :
*******************************************************************************/
void add_interrupt_handler(int irq, void (*handler)(void), int priority) {
uint32_t *vector_table = (uint32_t*)0x0;
// 将中断处理函数写入中断向量表中
vector_table[irq + 16] = (uint32_t)handler;
// 设置中断优先级
uint8_t priority_shift = 8 - __NVIC_PRIO_BITS;
uint32_t priority_mask = 0xff << priority_shift;
uint32_t priority_value = (priority << priority_shift) & priority_mask;
uint32_t *priority_reg = (uint32_t*)0xE000E400;
int index = irq / 4;
int offset = irq % 4;
priority_reg[index] &= ~(0xff << (offset * 8));
priority_reg[index] |= (priority_value << (offset * 8));
// 使能中断
uint32_t *enable_reg = (uint32_t*)0xE000E100;
enable_reg[irq / 32] |= 1 << (irq % 32);
}
/*******************************************************************************
* : enter_critical
* :
* :
* :
*******************************************************************************/
void enter_critical() {
// 在实现中,可以使用 ARM 的 CPSR 寄存器进入临界区
__asm__ volatile("cpsid i");
}
/*******************************************************************************
* : leave_critical
* :
* :
* :
*******************************************************************************/
void leave_critical() {
// 在实现中,可以使用 ARM 的 CPSR 寄存器离开临界区
__asm__ volatile("cpsie i");
}
/*******************************************************************************
* : task_exit
* : 退
* :
* :
*******************************************************************************/
void task_exit() {
// 切换到下一个任务
switch_to_next_task();
// 在实现中,可以使用 ARM 的 WFE 指令等待下一个中断
__asm__ volatile("wfe");
}
/*******************************************************************************
* : task_entry
* :
* :
* :
*******************************************************************************/
void task_entry() {
tcb_t *current_tcb = (tcb_t*)current_task;
current_tcb->state = TASK_RUNNING;
task_init(current_tcb);
while (1) {
switch_to_next_task();
}
}

View File

@ -1,91 +1,135 @@
/*
* Copyright (c) 2020 AIIT XUOS Lab
* XiUOS is licensed under Mulan PSL v2.
* You can use this software according to the terms and conditions of the Mulan PSL v2.
* You may obtain a copy of Mulan PSL v2 at:
* http://license.coscl.org.cn/MulanPSL2
* THIS SOFTWARE IS PROVIDED ON AN "AS IS" BASIS, WITHOUT WARRANTIES OF ANY KIND,
* EITHER EXPRESS OR IMPLIED, INCLUDING BUT NOT LIMITED TO NON-INFRINGEMENT,
* MERCHANTABILITY OR FIT FOR A PARTICULAR PURPOSE.
* See the Mulan PSL v2 for more details.
*/
/**
* @file: task.h
* @brief: file task.h
* @version: 1.0
* @author: AIIT XUOS Lab
* @date: 2023/05/18
*
*/
#ifndef __TASK_H__
#define __TASK_H__
#include <stdio.h>
#include <stdint.h>
#include <stdbool.h>
#include <stdint.h>
#include <stdbool.h>
#include <stdlib.h>
#include <string.h>
// 定义线程状态
// 任务状态枚举类型
typedef enum {
THREAD_READY, // 就绪状态
THREAD_RUNNING, // 运行状态
THREAD_BLOCKED, // 阻塞状态
THREAD_TERMINATED // 终止状态
TASK_CREATED, // 初始状态
TASK_READY, // 就绪状态
TASK_RUNNING, // 运行状态
TASK_BLOCKED, // 阻塞状态
} task_state_t;
// 定义线程控制块TCB
// 任务控制块结构体
typedef struct tcb {
uint32_t *stack_ptr; // 任务堆栈指针
uint32_t *stack_bottom; // 任务堆栈底部指针
uint32_t stack_size; // 任务堆栈大小
task_state_t state; // 任务状态
int priority; // 任务优先级
struct tcb *next; // 指向下一个任务控制块的指针
struct message_queue *message_queue; // 消息队列
} tcb_t;
// 消息结构体
typedef struct message {
int type; // 消息类型
void *data; // 消息数据指针
} message_t;
// 消息队列结构体
typedef struct message_queue {
message_t *buffer; // 消息缓冲区
int capacity; // 缓冲区容量
int count; // 当前缓冲区中的消息数量
int head; // 队头指针
int tail; // 队尾指针
semaphore_t *semaphore; // 信号量,用于实现消息队列的同步机制
} message_queue_t;
// 信号量结构体
typedef struct semaphore {
int count; // 计数器
tcb_t *wait_list_head; // 指向等待信号量的任务控制块的指针
mutex_t mutex; // 互斥锁,用于保护信号量和等待队列的访问
} semaphore_t;
// 互斥锁结构体
typedef struct mutex {
int lock; // 锁标志
} mutex_t;
// 上下文结构体
typedef struct {
int id; // 任务ID
int priority; // 任务优先级
task_state_t state; // 任务状态
uint32_t* stack_ptr; // 任务堆栈指针
size_t stack_size; // 任务堆栈大小
uint32_t *stack_bottom; // 任务堆栈底部
void (*entry_point)(void); // 任务入口函数
void *arg; // 任务参数
uint16_t cpu_id; // 任务所在的CPU ID
} tcb;
uint32_t cpsr; // 控制寄存器
uint32_t pc; // 程序计数器
uint32_t r0; // 寄存器 R0
uint32_t r1; // 寄存器 R1
uint32_t r2; // 寄存器 R2
uint32_t r3; // 寄存器 R3
uint32_t r4; // 寄存器 R4
uint32_t r5; // 寄存器 R5
uint32_t r6; // 寄存器 R6
uint32_t r7; // 寄存器 R7
uint32_t r8; // 寄存器 R8
uint32_t r9; // 寄存器 R9
uint32_t r10; // 寄存器 R10
uint32_t r11; // 寄存器 R11
uint32_t r12; // 寄存器 R12
uint32_t sp; // 栈指针
uint32_t lr; // 链接寄存器
} context_t;
// 定义任务调度器
typedef struct {
int num_cpus; // CPU数量
int num_tasks_per_cpu; // 每个CPU的任务数量
tcb **ready_queue; // 就绪队列
tcb *current_task; // 当前正在运行的任务
uint16_t current_cpu_id; // 当前CPU的ID
uint32_t *interrupt_stack_ptr; // 中断堆栈指针
} scheduler_t;
// 初始化任务调度器
scheduler_t *scheduler_init(int num_cpus, int num_tasks_per_cpu);
// 创建任务
int create_task(void (*func)(void *), void *arg, int priority, size_t stack_size);
// 销毁任务
int destroy_task(int task_id);
// 挂起任务
int suspend_task(int task_id);
// 恢复任务
int resume_task(int task_id);
// 调整任务优先级
int set_task_priority(int task_id, int priority);
// 获取当前任务的ID
int get_current_task_id();
// 获取当前CPU的ID
uint16_t get_current_cpu_id;
// 获取任务控制块
tcb *get_task_by_id(int task_id);
// 生成任务ID
int generate_task_id();
// 切换到下一个任务
void switch_to_next_task();
// 添加任务到就绪队列
void add_tcbo_ready_queue(tcb *task);
// 从就绪队列中移除任务
void remove_task_from_ready_queue(tcb *task);
// 初始化任务堆栈
void init_stack(uint32_t *stack_ptr, size_t stack_size, void (*func)(void *), void *arg,tcb* task);
// 空闲任务的入口函数
void idle_task(void *arg);
// 初始化空闲任务
void init_idle_task();
void tcb_init(tcb_t *tcb, int priority, int stack_size);
void tcb_destroy(tcb_t *tcb);
tcb_t *get_current_task(void);
tcb_t *get_local_run_queue_head(int cpu_id);
void add_to_global_run_queue(tcb_t *tcb);
tcb_t *take_from_global_run_queue(void);
void add_to_local_run_queue(tcb_t *tcb, int cpu_id);
tcb_t *take_from_local_run_queue(int cpu_id);
void move_current_task_to_global_run_queue(void);
void switch_to_next_task(void);
void task_init(tcb_t *tcb);
tcb_t *create_task(int priority, int stack_size);
void destroy_task(tcb_t *tcb);
void send_message(tcb_t *dest_tcb, int type, void *data);
void receive_message(int type, void *data);
message_queue_t *message_queue_create(int capacity);
void message_queue_destroy(message_queue_t *mq);
int message_queue_push(message_queue_t *mq, message_t *message);
int message_queue_pop(message_queue_t *mq, message_t *message);
int message_queue_push(message_queue_t *mq, message_t *message);
void context_init(context_t *context, void (*entry)(void), void *stack_ptr);
void wait_for_interrupt(void);
int get_cpu_id(void);
void *get_stack_pointer(void);
void set_stack_pointer(void *sp);
void add_interrupt_handler(int irq, void (*handler)(void), int priority);
void enter_critical(void);
void leave_critical(void);
void task_exit(void);
void task_entry(void);
#endif